陳一昕
陳一昕(1979年6月16日—)是一位美國華人計算機科學家、學者和技術管理者。他是聖路易斯華盛頓大學計算機科學與工程系的教授。[1]
陳一昕 | |
---|---|
出生 | 中國江蘇揚州 | 1979年6月16日
國籍 | 美國 |
職業 | 計算機科學家 |
榮譽
|
研究興趣是計算機科學,特別關注機器學習、深度學習、數據挖掘 、金融人工智能、和計算生物醫學領域[2]。他合著了《可解釋人工智能導論》一書。
由於在深度學習系統的貢獻而當選 電氣電子工程師學會(IEEE)會士。[3]自 2021 年起,他還是 ACM Transactions on Computing for Healthcare 的副主編。他還擔任 IEEE 2021 年國際大數據會議的主席。[4]
生平
1995年被中國科學技術大學少年班錄取並於1999年獲得計算機科學學士學位,並於 2001 年在伊利諾伊大學香檳分校獲得計算機科學碩士學位。隨後他繼續攻讀博士學位。 在 Benjamin Wah [5]的指導下,於伊利諾伊大學香檳分校獲得計算機科學博士學位,並於 2005 年完成。[6]
職業生涯
2005年在 聖路易斯華盛頓大學 計算機科學與 工程 系擔任 助理教授,開始了他的學術生涯。2010 年,他被任命為聖路易斯華盛頓大學計算機科學與工程系副教授。 2016 年起他是聖路易斯華盛頓大學計算機科學與工程系的教授。 [7]他是華盛頓大學人類與人工智能協作學習和操作中心 (HALO) 的主任。 [8]
研究
曾經發表大量學術著作。他的研究興趣集中在機器學習、人工智能、優化算法等領域。[2]
資源優化的機器學習
在深度神經網絡 (DNN) 的緊湊性和適用性方面進行了重要研究。 他提出了輕量級 DNN 的概念和架構。 他的團隊發明了 HashedNets 架構,該架構使用權重共享方案將超大規模 DNN 壓縮成更小的網絡。 [9]
還開發了一種用於卷積神經網絡 (CNN) 的壓縮框架。 他的實驗室發明了一種頻率敏感壓縮技術,可以更好地保留更重要的模型參數,從而獲得最先進的壓縮結果。[10]
圖和時間序列的深度學習
對圖神經網絡 (GNN) 做出了重大貢獻。 他和學生提出了最早的圖卷積技術之一DGCNN,可以從任意圖中學習有意義的張量表示,並展示了它與 Weisfeiler-Lehman 算法的深層聯繫。[11]他們的SEAL算法率先將 GNN 應用於連結預測和矩陣補全,並取得了世界紀錄的成績。 [12]
對於時間序列分類,陳一昕團隊提出了使用多尺度卷積神經網絡,也稱為 MCNN,理由是其計算效率高。 他說明 MCNN 通過利用 GPU 計算以不同的頻率和尺度提取特徵,這與其他只能在單一時間尺度上收回特徵的框架相反。[13]
獎勵和榮譽
參考書目
圖書
- Introduction to Explainable Artificial Intelligence (2022) ISBN 9787121431876
重要文章
- Chen, Y., & Tu, L. (2007, August). Density-based clustering for real-time stream data. In Proceedings of the 13th ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 133-142).
- Chen, W., Wilson, J., Tyree, S., Weinberger, K., & Chen, Y. (2015, June). Compressing neural networks with the hashing trick. In International conference on machine learning (pp. 2285-2294). PMLR.
- Cui, Z., Chen, W., & Chen, Y. (2016). Multi-scale convolutional neural networks for time series classification. arXiv preprint arXiv:1603.06995.
- Zhang, M., Cui, Z., Neumann, M., & Chen, Y. (2018, April). An end-to-end deep learning architecture for graph classification. In Proceedings of the AAAI conference on artificial intelligence (Vol. 32, No. 1).
- Zhang, M., & Chen, Y. (2018). Link prediction based on graph neural networks. Advances in neural information processing systems, 31.
參考來源
- ^ Yixin Chen - Washington University in St.Louis. [2023-02-13]. (原始內容存檔於2022-12-03).
- ^ 2.0 2.1 Yixin Chen - Google Scholar Profile. [2023-02-13]. (原始內容存檔於2023-01-25).
- ^ Chen elected IEEE Fellow - McKelvey School of Engineering. [2023-02-13]. (原始內容存檔於2023-06-09).
- ^ 2021 IEEE Conference on Big Data - IEEE. [2023-02-13]. (原始內容存檔於2023-03-03).
- ^ Benjamin Wah - Wikipedia. [2023-02-13]. (原始內容存檔於2023-04-13).
- ^ McKelvey School of Engineering - Washington University in St.Luois. [2023-02-13]. (原始內容存檔於2023-08-28).
- ^ Yixin Chen - Washington University in St. Louis. [2023-02-13]. (原始內容存檔於2022-12-03).
- ^ Faculty - Center for Collaborative Human-AI Learning and Operation. [2023-02-13]. (原始內容存檔於2023-01-25).
- ^ Compressing neural networks with the hashing trick - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25).
- ^ Compressing Convolutional Neural Networks in the Frequency Domain - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-06-26).
- ^ An end-to-end deep learning architecture for graph classification - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25).
- ^ Link prediction based on graph neural networks - ACM Digital Library. [2023-02-13]. (原始內容存檔於2023-01-25).
- ^ Multi-Scale Convolutional Neural Networks for Time Series Classification - Cornell University. [2023-02-13]. (原始內容存檔於2023-04-04).
- ^ Chen receives Microsoft fellowship. [2023-02-13]. (原始內容存檔於2023-06-02).
- ^ AAAI Conference Paper Awards and Recognition. [2023-02-13]. (原始內容存檔於2023-01-31).
- ^ Chen elected IEEE Fellow - McKelvey School of Engineering. [2023-02-13]. (原始內容存檔於2023-06-09)."Chen elected IEEE Fellow - McKelvey School of Engineering" (頁面存檔備份,存於互聯網檔案館).
- ^ {{url=https://aaia-ai.org/fellows?words=Yixin%20Chen%7Ctitle=Asia Pacific Artificial Intelligence Association}}