婷婷综合久久中文字幕蜜桃三电影—欧洲亚洲男女久久精品电影—少妇厨房愉情理伦bd在线观看—国产一区二区免费制服诱惑日韩免费观看视频一区二区三区

logo

距離創(chuàng)新創(chuàng)業(yè)大賽報名結(jié)束
48
16
37

會員登錄

用戶登錄 評委登錄
一周內(nèi)自動登錄 建議在公共電腦上取消此選項
一周內(nèi)自動登錄 建議在公共電腦上取消此選項
依據(jù)工信部新規(guī)要求,運營商部署做出調(diào)整,現(xiàn)部分用戶無法獲取短信驗證碼(移動運營商為主)。如遇收不到短信驗證碼情況,請更換其他手機號(聯(lián)通、電信)嘗試
一周內(nèi)自動登錄 建議在公共電腦上取消此選項
手機驗證碼登錄 還未賬號?立即注冊

會員注冊

*依據(jù)工信部新規(guī)要求,運營商部署做出調(diào)整,現(xiàn)部分用戶無法獲取短信驗證碼(移動運營商為主)。如遇收不到短信驗證碼情況,請更換其他手機號(聯(lián)通、電信)嘗試
已有賬號?
醫(yī)械創(chuàng)新資訊
醫(yī)械創(chuàng)新資訊

建立AI 醫(yī)療器械共識性倫理準則

日期:2019-11-21
瀏覽量:2452

人工智能(Artificial Intelligence,簡稱AI)作為新一輪產(chǎn)業(yè)變革的核心驅(qū)動力,已上升為國家戰(zhàn)略,并在醫(yī)療、工業(yè)機器人及教育、金融、互聯(lián)網(wǎng)服務(wù)等領(lǐng)域得到越來越多的應(yīng)用。AI 在醫(yī)療領(lǐng)域的應(yīng)用主要包括輔助診斷、輔助手術(shù)、臨床輔助決策、患者信息管理等,對應(yīng)的AI 醫(yī)療器械產(chǎn)品主要包括獨立的醫(yī)療軟件、AI 賦能醫(yī)療設(shè)備、醫(yī)療信息化系統(tǒng)等。


隨著以深度學(xué)習為代表的AI 技術(shù)的不斷發(fā)展,我們需要思考AI 醫(yī)療器械在發(fā)展與使用中面臨的倫理問題,充分認識AI 醫(yī)療器械在數(shù)據(jù)獲取、隱私保護等方面給人們帶來的影響。


AI 領(lǐng)域倫理準則現(xiàn)狀


目前,國內(nèi)外主要達成了兩個影響較廣泛的AI 倫理共識——“阿西洛馬人工智能原則”(Asilomar AI Principles)、電氣和電子工程師協(xié)會(IEEE)倡議的AI 設(shè)計的倫理準則。


“阿西洛馬人工智能原則”是在2017 年于美國加州阿西洛馬舉行的Beneficial AI 會議上被提出的,它是阿西莫夫機器人學(xué)三定律的擴展版本,可被理解為:AI 不能單純地為了利益而創(chuàng)造,而應(yīng)在確保人類不被替代的前提下,為通過自動化實現(xiàn)人類繁榮而創(chuàng)造。保持一種尊重隱私但開放、合作的AI 研究文化也是需要考慮的問題之一,需確保研究人員和政策制定者在交換信息的同時,不會用危害人類的手段與對手競爭。


IEEE 于2016 年提出“關(guān)于自主與智能系統(tǒng)倫理的全球倡議”,并于當年12 月和2017 年12 月先后發(fā)布了第一版和第二版《人工智能設(shè)計的倫理準則》白皮書(Ethically AlignedDesign)。該白皮書提出5 個核心原則:人權(quán)——確保AI 不侵犯國際公認的人權(quán);福祉——在AI的設(shè)計和使用中優(yōu)先考慮人類福祉的相關(guān)指標;問責——確保AI 的設(shè)計者和操作者負責任且可問責;透明——確保AI 以透明的方式運行;慎用——將濫用的風險降至最低。該準則的發(fā)布旨在為IEEE 正在推動的11 個與AI 倫理相關(guān)的標準的制定提供建議。


我國已將AI 上升為國家戰(zhàn)略,并在法律和政策層面進行深入布局。2017 年7 月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,在“戰(zhàn)略目標”部分對法律政策體系建設(shè)提出三步走的要求:第一步,到2020 年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立;第二步,到2025 年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;第三步,到2030 年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。2018 年1 月,國家人工智能標準化總體組成立,同時,《人工智能標準化白皮書(2018 版)》發(fā)布。今年4 月,國家人工智能標準化總體組第二次全體會議召開,會上發(fā)布了《人工智能倫理風險分析報告》。


醫(yī)療領(lǐng)域AI 的倫理風險


當前,AI 在醫(yī)療器械領(lǐng)域的應(yīng)用主要體現(xiàn)在醫(yī)學(xué)影像AI 技術(shù)、AI 技術(shù)賦能硬件上,如目前大量涌現(xiàn)的“智能讀片”類AI 醫(yī)療軟件。這種軟件能夠通過深度學(xué)習,在具有代表性的醫(yī)學(xué)影像數(shù)據(jù)庫中進行模型訓(xùn)練,并利用模型來解析圖像、文本、聲音,從而實現(xiàn)對病癥的早期篩查。AI 技術(shù)賦能硬件通常內(nèi)嵌于各類醫(yī)學(xué)影像設(shè)備中,在設(shè)備前期拍攝及后期圖像處理過程中實現(xiàn)圖像分割、分類、映射、配準等功能。


對于醫(yī)療領(lǐng)域AI 存在的倫理風險所帶來的影響,應(yīng)從社會、個人數(shù)據(jù)保護、AI 算法和醫(yī)學(xué)倫理四方面進行考慮。


對社會的影響?


現(xiàn)階段,醫(yī)療AI 倫理的標準化工作仍處于起步階段,行業(yè)內(nèi)尚未對醫(yī)療AI 的內(nèi)涵、應(yīng)用模式等達成共識,行業(yè)競爭可能造成AI 技術(shù)在醫(yī)療領(lǐng)域中的濫用。這會造成資源的浪費,目前,絕大多數(shù)AI 輔助診療結(jié)果仍需醫(yī)生確認,此種AI 產(chǎn)品是否具有臨床意義有待商榷。另外,隨著科技發(fā)展,傳統(tǒng)診療方法逐步向高科技輔助診療轉(zhuǎn)變,此類輔助診療產(chǎn)品往往集中在科技發(fā)達、經(jīng)濟水平較高的國家和地區(qū),這將進一步加劇不同國家和地區(qū)間醫(yī)療資源和水平的不平衡。如何讓每個國家和地區(qū)都能受益于AI 帶來的“福祉”,是需要思考的問題。


個人數(shù)據(jù)保護風險?


以“深度學(xué)習+ 大數(shù)據(jù)”為框架的醫(yī)學(xué)AI系統(tǒng)需要大量數(shù)據(jù)來訓(xùn)練、學(xué)習算法。目前,AI產(chǎn)品的訓(xùn)練樣本主要來自醫(yī)院患者的各類醫(yī)學(xué)影像數(shù)據(jù),少部分來自人類行為信息的數(shù)字化記錄。醫(yī)學(xué)影像數(shù)據(jù)、患者行為信息涉及患者隱私保護問題。信息使用者在獲取相應(yīng)數(shù)據(jù)時,必須抹去患者個人敏感信息,只保留相關(guān)的醫(yī)學(xué)信息。關(guān)于敏感信息的定義、識別和處理,目前國內(nèi)尚無明確的標準,主要依賴于企業(yè)自覺。當前可供企業(yè)參考的數(shù)據(jù)隱私保護準則有歐盟于2018 年5 月發(fā)布的《通用數(shù)據(jù)保護條例》(GDPR)、美國國會于1996 年頒布的《健康保險可攜性與責任法案》(HIPAA)。


算法風險?


對深度學(xué)習算法來說,在其應(yīng)用階段也存在諸多風險。一是安全性風險,算法存在泄漏、參數(shù)被非預(yù)期修改的風險。現(xiàn)階段的深度學(xué)習算法是典型的“黑箱”算法,當其被修改時,算法性能的降低或錯誤的發(fā)生很難被察覺。醫(yī)療領(lǐng)域與人身安全息息相關(guān),這一風險的發(fā)生會直接侵害患者的人身權(quán)益。二是算法偏見風險,鑒于算法的復(fù)雜性和專業(yè)性,關(guān)于AI 算法輸入的某些特性如何引起某個特定輸出結(jié)果的發(fā)生,很難解釋清楚。算法偏見可能是由程序員的主觀認知偏差造成,也可能是因輸入數(shù)據(jù)的分布本身即不具有整體代表性所導(dǎo)致。并且,如果算法在臨床應(yīng)用中通過本地數(shù)據(jù)進行無監(jiān)督學(xué)習,則有加重偏見的風險。


醫(yī)學(xué)倫理風險?


對醫(yī)學(xué)AI 產(chǎn)品的倫理思考應(yīng)納入醫(yī)學(xué)倫理范疇,考慮如何進行患者隱私及數(shù)據(jù)的保護,這也是醫(yī)療類AI 產(chǎn)品與一般AI 產(chǎn)品在倫理問題方面的最大區(qū)別。


在我國,獲取醫(yī)學(xué)臨床數(shù)據(jù)、進行臨床試驗須獲得醫(yī)學(xué)倫理審批,負責倫理審查的組織——倫理委員會肩負醫(yī)學(xué)研究倫理審查、受試者權(quán)益保護、人的尊嚴維護等重要職責。2017 年10 月,中辦、國辦印發(fā)《關(guān)于深化審評審批制度改革鼓勵藥品醫(yī)療器械創(chuàng)新的意見》,提出完善倫理委員會機制,各地可根據(jù)需要設(shè)立區(qū)域倫理委員會,指導(dǎo)臨床試驗機構(gòu)倫理審查工作。


AI 醫(yī)療器械應(yīng)遵循的倫理方向


推動醫(yī)學(xué)AI 倫理標準化?


從促進行業(yè)發(fā)展的角度看,開放、共享的高質(zhì)量醫(yī)學(xué)數(shù)據(jù)集是未來的發(fā)展趨勢,但數(shù)據(jù)獲取的來源、數(shù)據(jù)標注的規(guī)范格式等尚無統(tǒng)一標準,這使得高質(zhì)量的數(shù)據(jù)集難以在各個AI 產(chǎn)品開發(fā)者間實現(xiàn)互通。只有在相應(yīng)規(guī)則確定后,AI 醫(yī)療器械產(chǎn)業(yè)才能獲得高速發(fā)展。


數(shù)據(jù)完整性與醫(yī)學(xué)倫理的平衡?


在滿足醫(yī)學(xué)倫理保護隱私及數(shù)據(jù)這一要求的同時,醫(yī)療類AI 產(chǎn)品為獲得高質(zhì)量數(shù)據(jù)集,應(yīng)盡可能保留更多的信息(如患者既往病史等),以便用于分析、處理,并避免在進行數(shù)據(jù)收集時納入偏見、非典型甚至錯誤的信息。同時,醫(yī)療類AI 產(chǎn)品在數(shù)據(jù)收集、標注過程中必須保證數(shù)據(jù)的完整性,以使AI 產(chǎn)品是可解釋、可信任的。如何最大限度地保留信息,并避免通過信息追溯到個人,是醫(yī)療類AI 產(chǎn)品開發(fā)中應(yīng)遵循的倫理方向之一。


在AI 與倫理準則領(lǐng)域進行深入探索,并圍繞其建立相關(guān)標準,形成醫(yī)療健康A(chǔ)I 的標準生態(tài),關(guān)系到醫(yī)療AI 的未來發(fā)展動向。AI 產(chǎn)業(yè)能否取得公眾信任并獲得持續(xù)性發(fā)展,關(guān)鍵在于能否建立共識性的倫理準則。我們需在保持數(shù)據(jù)較高完整度的同時,做好患者隱私保護,并在符合現(xiàn)有倫理準則的前提下,將來自于不同渠道的數(shù)據(jù)用于機器學(xué)習,促進AI 醫(yī)療器械產(chǎn)業(yè)的進一步發(fā)展。


返回列表