專題演講1:除探討AI智慧醫療及手術技術,外科該如何因應未來變化?

S1-6
擴增智慧AI的次世代醫療應用
林哲偉副教授
成功大學生物醫學工程學系

  2023年的人工智慧將以生成式人工智慧、可解釋人工智慧、人工智慧晶片三種新穎樣貌產生次世代的醫療應用。生成式人工智慧在2022年底OpenGPT問世後獲得大量關注,生成式人工智慧(Generative Adversarial Networks,簡稱GAN)是一種深度學習模型,由兩個神經網絡相互對抗而構成:一個生成器和一個鑑別器。生成器接收一個隨機向量作為輸入,並生成新的數據,例如圖像、音頻或文本。鑑別器接收原始數據和由生成器產生的數據,並試圖區分哪些數據是真實的、哪些是由生成器產生的虛假數據。這樣,生成器逐漸進化並優化其生成的數據,以欺騙鑑別器。最終,生成器能夠生成看起來與真實數據相似的新數據,並且產生的數據越來越逼真。生成式人工智慧具有潛力更近一步的找出醫療數據中存在的臨床模式、且同時不會有洩露真實患者醫療個資的風險。目前使用臨床醫療資料建構人工智慧模型的研究常遭遇的問題為:1)臨床病例歷史資料不夠結構化、2)不同病患資料中所包含的檢查項目不一致、導致訓練模型時常有缺失值存在。生成式人工智慧可從非結構化的病例資料中自動摘要和提取關鍵信息,提取關鍵詞、疾病歷史、症狀描述和診斷,從而生成簡潔但全面的病例摘要。此外,生成式人工智慧的生成器以及鑑別器協作的特性使其可從醫療數據中學習和複製醫療數據(如電子病歷、索賠、臨床試驗),接著以「逼真但不真實」的方式合成新的醫療記錄。生成式人工智慧與深度學習的整合將可使目前的醫療人工智慧更上層樓。生成式人工智慧更可用於個人化的醫療策略制定,它可以根據個人的生理資訊和醫學歷史,生成專門針對該個體的醫療方案。例如已有研究使用生成式對抗網絡(GAN)模型生成個人化的心臟模型,以便醫師更容易理解患者的心臟問題並制定最佳治療計畫。可解釋人工智慧(Explainable Artificial Intelligence,簡稱XAI)是指一種人工智慧技術,可以解釋人工智慧模型的內部運作方式,讓人類可以理解人工智慧模型是如何做出決策和預測的。這樣的解釋能夠幫助人類了解模型的強項和弱點,進而提高模型的信任和可靠性,並且讓人類可以更好地使用和調整模型。可解釋人工智慧的實現有許多方法,例如將模型的內部運作方式視覺化,或者使用自然語言生成的方式進行解釋。解釋方法還可以基於規則、網絡拓撲結構、影響因素等方面進行,以便更好地解釋模型的決策。可解釋人工智慧在醫療上的應用可讓臨床醫療人員更理解人工智慧決策的邏輯、以提升信任度。人工智慧晶片的成熟發展並結合於擴增實境將可在手術中帶來更即時的手術影像分析及導航、以及決策輔助,或與生理訊號量測設備以物聯網的方式整合,提供患者術中更即時的生理狀況分析。