隨著人工智能(AI)技術的不斷發展和迭代,人類社會已進入大算力、大模型、大數據、大應用時代。AI早已被引入醫療領域,在流行病監測、藥物研發、醫療影像識別、心理健康等方面發揮重要作用。而與之相伴的數據安全隱患也日益凸顯。
當前,醫療領域網絡化、數字化、智能化進程面臨的安全風險主要包括數據泄露與隱私泄露、網絡攻擊與黑客入侵、數據篡改與偽造、不當訪問與授權管理、醫療數據共享風險、數據存儲的第三方服務風險、內部人員的泄密、數據冗余與保存不當、法律合規風險等。概括來說,要關注以下3個方面的問題。
第一是網絡安全問題。隨著AI技術的應用,網絡安全風險出現了新變化,傳統的網絡安全問題受AI影響變得更加復雜,數據劫持、網絡釣魚、勒索攻擊更加猖獗。
當前,醫療領域的網絡犯罪現象十分突出,醫療數據遭受攻擊和破壞的案例時有發生。例如,2023年,位于印度新德里的全印度醫學科學研究所的醫療設備遭遇勒索病毒攻擊;今年9月,美國AI醫療公司Confidant Health的服務器配置錯誤,泄露了5.3TB的敏感心理健康記錄。
IBM發布的《2024年數據泄露成本報告》顯示,醫療行業數據泄露平均成本達977萬美元,連續14年成為數據泄露成本最高的行業。國內某網絡安全企業也披露,2023年醫療行業泄露數據達9億條,影響觸目驚心。
第二是模型安全問題。AI模型的安全性直接影響應用效果,尤其是在醫療領域,近年來已經暴露出一些問題,包括個人隱私泄露、算法或模型攻擊、模型偏差以及系統脆弱性和網絡安全。這些問題的主要原因是模型本身在可靠性和可解釋性方面存在不足。例如,AI模型受到簡單擾動可能就會產生錯誤輸出,或者數據本身存在問題導致AI模型結果不準確。
第三是AI在醫療領域應用中不可忽視的倫理問題。全球多國發布了關于AI倫理的文件,提出合作、透明度、公平、非惡意責任、隱私等基本要求。醫療領域也提出如何保護個人自主權、個人健康和安全以及公眾利益等具體要求。然而,隨著實際應用的推廣,與AI相關的偏見、歧視、技術濫用、事故責任認定等倫理問題越來越突出。
針對AI在醫療領域應用的風險問題,需要從數據、安全和管理等角度進行應對。
在數據方面,要提高安全防護水平,確保數據安全和隱私保護,促進AI技術在現代醫療領域的轉型和升級。數據是現代醫療的重要生產要素,具有很高的價值。雖然當前醫療數據數量越來越多,但數據質量并沒有隨之提高,“數據孤島”問題依然存在,數據協同合作動能和效能不足,跨境數據流動面臨較多待破解難題等,急需全方位突破。
在安全工作方面,要統籌安全與發展,強化安全保障體系。具體而言,要把軟件作為網絡安全服務的重點,確保醫療智能化系統的穩定性和可靠性。同時,需要加強醫療數據的保護,防范患者隱私數據丟失,但要確保促進正常的科研合作和數據流動。此外,還需要增強安全意識,通過定期培訓與教育、營造安全文化氛圍、模擬演練與應急響應、建立安全意識提示機制等舉措,增強醫療行業從業人員整體的網絡安全意識。
最后,要堅持依法依規管理,做好“技管并重”。可以充分利用數字醫療技術、安全保障技術等手段確保AI技術在醫療領域的發展和安全。同時,還要高度重視對新技術安全風險方案的研究,嚴格遵守法規政策,遵循技術標準和行業規范,以確保AI應用的安全性。
(作者吳世忠系中國工程院院士,中國科學報記者刁雯蕙根據其在2024新質生產力、醫工融合創新大會上的報告整理)