返回文章列表

以人為本的醫療人工智慧設計

本文探討如何在醫療保健領域發展以人為本的人工智慧,強調考量人類需求、價值觀和社會文化因素的重要性。文章分析了AI在醫療應用中的倫理挑戰、人類理解AI的必要性,以及人機協同工作的潛力。同時也探討了AI模型的偏差問題、資料隱私等議題,並提出了以人為中心的設計思維和可解釋性AI的解決方案。

醫療保健 人工智慧

目前人工智慧在醫療領域的應用越來越多元,但要讓 AI 真正落地,必須以人為本,考量人類需求、價值觀和社會文化脈絡。這需要跨領域合作,整合工程師、醫療專業人員和病患的觀點,才能開發真正符合臨床需求的 AI 系統。尤其在醫療決策上,AI 必須考量病患的自主權、生活品質等非量化因素,並與醫師協作,才能提供適切的醫療照護。此外,AI 模型的偏差問題、資料隱私等議題也需要被重視,才能確保 AI 系統的公平性和安全性。

以人為本的人工智慧:理解人類需求與價值

人工智慧(AI)在醫療保健領域的應用日益廣泛,但其發展方向與目標仍存在爭議。AI的目標究竟是為了改善患者的健康狀況,還是為了降低成本?在前者的情況下,AI會優先考慮高風險患者,以便及時介入並預防疾病的發展。然而,在後者的情況下,AI可能會被視為歧視性的,因為它可能會將最需要醫療資源的患者置於次要地位。

人類自主權與AI的侷限性

考慮到一位新診斷出癌症的老年患者,AI可能會建議進行治療,但卻忽略了人類自主權的重要性。患者可能因年齡或生活品質而不願接受治療。AI無法理解人類的價值觀和自主權,因此在制定治療決策時,必須將這些因素納入考量。以人為本的AI應該將社會文化價值,如患者自主權,納入智慧結構的設計中。

明確知識與隱含知識

目前,AI能夠執行與明確和隱含人類知識相關的任務。明確知識通常被視為「書本知識」,而隱含知識則源自直覺和經驗。醫生在診斷和治療患者時,會結合明確知識和隱含知識。然而,AI仍處於獲得對人類的默示理解的初期階段。

情感計算與AI的發展

情感計算是AI的一個補充領域,研究能夠識別和解釋人類情感的系統和裝置。情感計算與AI的結合,可能會使AI更好地理解人類的情感和需求。

AI理解人類的侷限性

目前,AI的能力和願望使其很容易被聲稱具有對人類的理解。然而,這並不準確。AI表現出類別似人類的隱含知識,但必須使用編碼了這種隱含知識的資料來構建和訓練AI。這意味著,AI並不具有對人類的固有知識,而是由人類創造了專家知識和結構來使AI理解。

內容解密:

  1. 明確知識與隱含知識:明確知識是指透過學習和教育獲得的知識,而隱含知識則是透過經驗和直覺獲得的。
  2. 情感計算:情感計算是研究能夠識別和解釋人類情感的系統和裝置,與AI結合可提高對人類情感的理解。
  3. 以人為本的AI:強調在AI設計中納入人類價值觀和社會文化因素的重要性。

以人為本的AI設計

許多AI相關的失敗案例都歸因於缺乏以人為本的設計。一個研究估計,60%的「大資料」專案未能被實施。成功的AI系統需要以人為本的設計思維,讓所有利益相關者共同合作朝著共同目標努力。

醫生的整體分析

醫生在診斷和治療患者時,會進行整體分析,考慮到醫療因素、藥物、安全性、社會穩定性和支援等多個變數。這些因素對治療決策具有不同的重要性和權重。AI若未能考慮到這些變數,就難以真正理解人類的需求。

圖表翻譯:

此圖示展示了醫生在診斷和治療患者時的整體分析過程,包括醫療因素、藥物、安全性、社會穩定性和支援等多個變數。 圖表翻譯: 此圖表展示了醫生在進行整體分析時考慮的多個因素,以及這些因素如何影響治療決策。

人工智慧與人類的交集:醫療保健中的以人為中心的AI

在醫療保健領域中,人工智慧(AI)的應用正日益普及。然而,若要讓AI真正有效地服務於人類,我們必須考慮到技術與人類需求之間的交集。醫療保健中的AI系統需要具備理解人類背景和侷限性的能力,這不僅需要工程師與利益相關者之間的合作,還需要以人為中心(human-centered)的設計思維。

AI模型的雙重性問題

機器學習模型如同其他技術一樣,存在著雙重性問題,即一個為某個目的而建立的模型可能會被用於另一個不同的目的。例如,一個原本設計用於預測糖尿病以進行主動預防的模型,後來被另一個業務部門用於管理Medicare或Medicaid人群的疾病。然而,這個模型並沒有被更新以適應新的目標。

這同一個機器學習模型被用於兩個不同的目標:(1)協助自我資助人群中的糖尿病管理,僱主承擔成員的所有醫療費用;(2)協助Medicaid或Medicare人群中的糖尿病管理,政府支付大多數成員的醫療費用。兩個目標之間的人群特徵差異很大,這影響了模型的使用和管理方式。

人口特徵差異對AI模型的影響

自我資助人群(即僱主資助)通常是就業年齡、較年輕、假設較健康。相比之下,Medicare人群則是年齡較大、退休、更有可能患有慢性疾病。因此,一個適合某一人群的AI模型目標可能不適合另一人群。例如,檢測和推薦治療計劃的AI模型對於這兩個人群會有所不同。對於年長人群,護士可能需要更積極地規劃居家患者存取。處理合併症、居家老齡化,甚至主要的參與方式都可能有所不同。

實驗室資料的偏差問題

醫學界知道,平均實驗室值或測試結果並不是根據全國人口的典型發現。相反,平均實驗室值範圍反映了中年高加索男性平均值,因為這在最初的實驗室標準設定中被視為正常值。例如,高加索男性的平均白血球(WBC)計數範圍從4,500到11,000個WBC/微升。然而,非裔美國人的平均WBC計數可能低達這個範圍的50%。

內容解密:

實驗室資料的偏差問題源自於最初的標準設定是以中年高加索男性為基準。這導致了在將AI應用於特定人群時,如果不注意這種偏差,就會將其傳播下去。對於非裔美國人來說,由於平均WBC計數較低,如果使用標準的WBC範圍,可能會導致不必要的醫療檢測。

以人為中心的AI設計

AI使用「正常」的實驗室值,即使是在以人為中心的架構中,也會受到基礎資料中固有的偏差的限制。也就是說,族裔差異往往沒有反映在廣泛採用的平均實驗室範圍內,這可能會導致醫療品質下降。AI與大資料一起,可以透過分析全人群的實驗室值並將這些值與整個群體的結果相關聯,來個人化每個個人或人群的「正常」實驗室值範圍。

圖表翻譯:

@startuml
skinparam backgroundColor #FEFEFE
skinparam componentStyle rectangle

title 以人為本的醫療人工智慧設計

package "機器學習流程" {
    package "資料處理" {
        component [資料收集] as collect
        component [資料清洗] as clean
        component [特徵工程] as feature
    }

    package "模型訓練" {
        component [模型選擇] as select
        component [超參數調優] as tune
        component [交叉驗證] as cv
    }

    package "評估部署" {
        component [模型評估] as eval
        component [模型部署] as deploy
        component [監控維護] as monitor
    }
}

collect --> clean : 原始資料
clean --> feature : 乾淨資料
feature --> select : 特徵向量
select --> tune : 基礎模型
tune --> cv : 最佳參數
cv --> eval : 訓練模型
eval --> deploy : 驗證模型
deploy --> monitor : 生產模型

note right of feature
  特徵工程包含:
  - 特徵選擇
  - 特徵轉換
  - 降維處理
end note

note right of eval
  評估指標:
  - 準確率/召回率
  - F1 Score
  - AUC-ROC
end note

@enduml

此圖示展示瞭如何利用AI和大資料來個人化實驗室值範圍,從而改善診斷和臨床決策。

與大人口生成的參考範圍相比,個人基線或特定族裔的實驗室範圍可能會改善疾病狀態的診斷,從而改善患者的健康監測、臨床決策和整體醫療保健。為什麼AI嘗試超越這些偏差並應用社會文化人類相關性如此重要?一個主要原因是目標相關性。AI應用在與人類終端使用者相關時最有價值。結果的相關性至關重要。

人類在AI設計和解釋中的重要性

在前面的例子中,一個非裔美國男性可能會遭受昂貴且可能造成傷害的進一步檢測,包括可能的骨髓活檢。為了使情況更加複雜,實驗室結果的背景也很重要。當一個低WBC計數可能導致對非裔美國男性進行進一步檢測時,在感染或甚至癌症的情況下,同一個患者的WBC計數升高可能看起來在正常範圍內,因此不會進行評估感染或其他原因的檢測。在一種情況下,不必要的檢測;在另一種情況下,未進行必要的檢測。鑒於前述例子中需要特定的背景來解釋實驗室發現,人類是AI設計和解釋的重要組成部分。沒有人類關注,AI無法提供相關的解決方案。

AI侷限性的認識和人類交接

另一個AI理解人類背景至關重要的例子是當必須進行人類交接時。然而,當應用以人為中心的AI時,AI意識到其侷限性。我們設計AI以觸發交接給人類進行進一步的背景分析。這是應用隱含知識以獲得對患者足夠的解決方案。例如,在剛才討論的WBC例子中,智慧實驗室系統被賦予額外的資訊,即正常的WBC範圍可能因種族和性別而異。交接給臨床醫生進行進一步審查將顯示患者的WBC是正常的,患者將不需要進行不必要的檢測。以人為中心的AI可以幫助根據人類背景確定應該發生人類干預的交接點以及何時發生。

以人為本的人工智慧在醫療保健中的挑戰與應用

人工智慧的社會規範與偏見問題

人工智慧(AI)在醫療保健領域的應用日益廣泛,但其發展仍面臨諸多挑戰。微軟開發的聊天機器人Tay是一個典型的例子。Tay在Twitter上與使用者進行互動,但不到24小時,就被網路噴子透過灌輸種族主義、厭女主義和反猶太主義的推文而腐化。Tay原本設計為具有利他主義和親人性的人格,但最終卻變成了一個徹頭徹尾的種族主義者。這一事件表明,如果AI系統的設計沒有考慮到社會規範和人類價值觀,就可能反映和放大不良的回應模式或行為。

人類理解人工智慧的重要性

人類理解AI對於AI在醫療保健領域的成功應用至關重要,這一點被歸納在可解釋性AI(Explainable AI)的範疇內。當一架飛機發生不明原因的墜毀時,聯邦航空管理局會檢查「黑盒子」資料以確定過程或系統中哪裡出了問題。同樣,在我們的自動化智慧系統中,當出現故障時,我們人類希望瞭解原因。許多AI神經網路就像航空黑盒子一樣難以解釋,但有一些策略可以用來解決可解釋性問題。

可解釋性AI在醫療保健中的實踐

在醫療保健領域,可解釋性AI的目標是提供足夠的教育,讓其他人瞭解這些智慧系統的工作原理和開發過程。這種理解必須在所有受影響的利益相關者之間分享。在實踐中,提供對底層假設、目標、資料集和模型範圍的理解,有助於模型的應用。人們對任何無法被人類終端使用者理解的系統自然存在懷疑。在醫療保健領域,由於健康問題的敏感性和個人性,這一問題更加突出。

幫助人類理解智慧系統的方法

有多種方法可以幫助人類理解智慧系統。所有這些方法都在一定程度上關注必須分享多少資訊才能創造理解和接受度。一個方法是開發對演算法如何處理輸入的描述。描述模型的目標及其預期使用案例,有助於解釋模型。另一個方法是開發對決策原因的解釋。我們透過收集人類執行類別似任務的智慧系統的解釋經驗來產生這些解釋。

程式碼範例:簡單的神經網路模型

import numpy as np

# 定義一個簡單的神經網路模型
class SimpleNeuralNetwork:
    def __init__(self, input_size, hidden_size, output_size):
        self.weights1 = np.random.rand(input_size, hidden_size)
        self.weights2 = np.random.rand(hidden_size, output_size)

    def forward(self, x):
        # 前向傳播
        hidden_layer = np.dot(x, self.weights1)
        output_layer = np.dot(hidden_layer, self.weights2)
        return output_layer

# 初始化模型
model = SimpleNeuralNetwork(input_size=784, hidden_size=256, output_size=10)

# 假設輸入資料
input_data = np.random.rand(1, 784)

# 執行前向傳播
output = model.forward(input_data)
print("輸出結果:", output)

內容解密:

  1. 模型初始化SimpleNeuralNetwork類別在初始化時定義了兩個權重矩陣weights1weights2,分別對應於輸入層到隱藏層和隱藏層到輸出層的連線。
  2. 前向傳播forward方法實作了神經網路的前向傳播過程,首先計算輸入層到隱藏層的輸出,然後計算隱藏層到輸出層的最終輸出。
  3. 輸入與輸出:範例中假設了一個輸入資料input_data,並展示瞭如何使用模型進行前向傳播得到輸出結果。

人類介入的重要性

人類介入在某些情況下是必要的,因為AI系統可能無法完全理解複雜的人類情境。例如,一位65歲的患者Phil因中風住院,AI系統建議他應該繼續住院以確保安全,但Phil卻擅自離開醫院,並要求轉入康復設施。最終,在人類介入下,Phil被直接轉入康復設施,這一決策考慮到了患者的整體情況和人文關懷。

以人為本的AI與倫理挑戰

人工智慧(AI)已經成為21世紀的重要技術之一,但它也帶來了許多倫理挑戰。根據普華永道的估計,AI將在2030年為全球經濟帶來約16萬億美元的收益。然而,史丹佛大學以人為本的AI研究所的一份報告指出,AI的普及可能會導致社會失衡。

人類理解AI的重要性

在醫療領域,AI被用於幫助醫生做出決策。然而,如果醫生不理解AI的決策過程,他們就無法有效地使用AI。一個例子是,一位醫生使用AI系統來決定是否將一名患者轉移到另一家醫院。如果醫生不理解AI的決策過程,他們可能會忽略AI的建議,或者在不瞭解其背後原因的情況下遵循建議。

人類理解AI的另一個重要方面是與倫理相關的問題。如果人類終端使用者不瞭解AI應用程式的決策過程,那麼我們如何確保倫理決策的做出,而不受偏見或商業動機的影響?

人類倫理與AI

AI被認為是21世紀最重要的人權挑戰之一。在建立AI模型和解決方案時,利益相關者必須認識到業務目標驅動著開發和成功衡量。我們不能建立比我們所要實作的目標更好的AI系統。

倫理問題

  1. 如何建立智慧結構以避免財富集中在少數精英手中,同時避免全球大多數人的貧困和無權狀態?
  2. 如何解決因自動化而被取代的人類工作的問題?
  3. 如何保護低社會經濟階層的人,因為自動化工作對他們的經濟影響更大?
  4. 如何確保資料隱私?

在AI解決方案開發的整個生命週期中,從專案啟動到佈署,都可能出現倫理問題。我們必須瞭解這些問題,並採取措施解決它們。

以人為本的方法

目前,美國大多數城市的人口將在2030年之前不再具有種族多數性,這使得AI系統缺乏多樣性的問題更加明顯。建立智慧系統時缺乏種族和性別多樣性,這可能會導致AI模型不能反映其所要解決的社會系統的文化多樣性。

一些公司正在推動對隱性偏見訓練的審查,並實施了許多多樣性倡議。2019年,美國國會提出了《演算法問責法案》,該法案要求聯邦貿易委員會評估演算法偏見,並允許該機構根據公司規模發出罰款。

個體自主權與隱私

哈佛商學院教授Shoshana Zuboff在其著作《監控資本主義時代》中描述了一種新的資本主義形式。這種資本主義結合了許多資料點,包括安全監控攝像頭、智慧家居裝置、智慧手機、生物識別裝置和社交媒體,用於取得個人資料並對我們的行為進行預測。

這種形式的資本主義將個人資料視為免費的原始資源,將其轉化為行為資料。其倫理威脅在於,當我們的行為可以被少數頂級公司預測和塑造時,人類將面臨絕望感,不再控制自己和自己的行為。

進一步的倫理考慮

  1. 當AI與國家軍事力量結合時,會產生什麼樣的倫理問題?
  2. 如何防止AI被用於操縱人類行為?

2017年,弗拉基米爾·普京說:「誰成為[AI領域]的長官者,誰就將成為世界的統治者。」埃隆·馬斯克回應說,AI軍備競賽將是「第三次世界大戰最可能的原因」。馬斯克和其他4500名AI和機器人研究人員簽署了一份《為未來而戰》的公開信,反對沒有人類干預的自主武器。

以人為本的人工智慧在醫療保健領域的應用

人工智慧(AI)在醫療保健領域的應用正逐漸擴大,但要使其發揮最大效用,就必須確保AI系統是以人為本的方式設計和實施。所謂「以人為本的AI」,是指在AI的設計、交付、使用和改進過程中,充分考慮人類的需求和價值觀,確保AI能夠與人類協同工作,而不是取代人類。

人類與AI的協同工作

研究表明,當人類與AI協同工作時,能夠取得比單獨工作更好的效果。哈佛商業評論(HBR)指出,人類與AI的協同工作可以創造出更大的價值。 Wei Xu進一步提出,人類與AI的整合和團隊合作是未來發展的方向。

在醫療保健領域,人類與AI的協同工作可以透過以下方式實作:

  • AI進行初步的評估和篩查,例如在視網膜掃描中,AI可以識別出異常的情況。
  • 人類專家對AI篩查出的異常情況進行進一步的評估和診斷。
  • AI和人類專家共同合作,提供更好的醫療服務。

以人為本的AI在醫療保健領域的應使用案例項

  1. 視網膜掃描: AI進行初步的評估,識別出正常和異常的情況。異常情況由人類專家進一步評估。

    內容解密:

    • AI負責初步篩查,減輕人類專家的負擔。
    • 人類專家根據患者的病史和臨床表現進行綜合評估。
    • 這種人機協同工作模式提高了診斷的效率和準確性。
  2. 呼叫中心或客戶服務中心: 利用AI聊天機器人或虛擬助手來輔助客戶服務。

    內容解密:

    • AI聊天機器人可以處理常見的問題,減輕人類客服人員的工作量。
    • 人類客服人員可以專注於處理更複雜的問題。
    • 這種模式提高了客戶服務的效率和滿意度。
  3. 急診室分診: AI可以透過分析患者資料,評估哪些患者在接下來的90分鐘內最需要護理。

    內容解密:

    • AI利用模式識別的能力,快速篩查出需要緊急護理的患者。
    • 醫護人員可以根據AI的評估結果,優先處理病情嚴重的患者。
    • 這種動態的人機協同工作模式,可以根據臨床醫學的進展和新的資料輸入進行調整。