為什麼可解釋人工智慧(Explainable AI, XAI)是人工智慧的未來

2021-09-27

Amy Hodler Picture
Amy HodlerAmy Hodler is Director, Analytics and AI Program at Neo4j, the world’s leading graph database company. She is also co-author of Graph Algorithms: Practical Examples in Apache Spark & Neo4j, published by O’Reilly Media.

為什麼可解釋人工智慧(Explainable AI, XAI)是人工智慧的未來

人工智慧 (AI) 已經改變許多生活及商業領域。其影響難以量化。同樣地,人工智慧和機器學習提供錯誤答案的案例也越來越常見。 AI 專家 Amy Hodler 探討了 AI 演算法如何出錯,並強調了圖形技術如何提供幫助。

亞馬遜臉部辨識技術錯誤地將三屆超級盃冠軍新英格蘭愛國者隊的杜倫·哈蒙辨別為犯罪者。微軟的AI Chatbot 被用戶控制並引發重複的攻擊性用語。這種錯誤將對品牌造成巨大損害。企業熱衷於解決這個問題,而這個問題可以提煉成一個新概念,“可解釋性”。

說明可解釋性(Explaining explainability)

可解釋性的概念包括數據、預測和演算法。使用哪些數據來訓練模型,為什麼?這個特定的預測使用了哪些特徵和權重?用於預測的各個層級和臨界值是什麼?

一個組織可以擁有世界上最好的人工智慧系統,但如果底層數據被操控或不完整,組織就不能仰賴系統。必須迫切知道數據在哪裡,以及誰接觸了它。何時更改、關係鏈是什麼、數據會如何的被使用在其他地方?

很顯然,需要使 AI 預測更容易追踪和解釋。沒有這一點,人工智慧的部署可能會減慢速度並限制更進一步的採用。尤其在醫療保健和刑事司法案件中至關重要。在這些情境下,錯誤的後果不僅僅是提供糟糕的客戶體驗。 AI 需要可解釋性才能有效運行。

圖形技術介紹(Introducing graph technology)

圖形資料庫技術可以提供即時協助。在圖形資料庫中,可以更容易追蹤數據的改變方式、數據的使用位置以及誰使用了哪些數據。這是一個廣泛用於數據沿襲的技術,符合歐洲的 GDPR 或加州消費者隱私保護法 (CCPA) 等法規的合規性要求。

在人工智慧應用的背景下,圖形技術可以使用數據沿襲方法解決可解釋的數據問題。圖形技術組成了讓人工智慧更廣泛適用的框架和聯繫。理解和監控數據沿襲還可以防止對數據輸入的操控。這在企業詐欺等領域很常見,在詐欺案例中,數據輸入的重要性是常識,所以人們可以操控訊息避免被偵測。

這使得整個系統本質上是不可信的。圖形資料庫技術有助於建立這種信任。擁有可解釋的數據意味著企業知道使用哪些數據來訓練模型。為達到目的,需要將數據儲存為圖形資料庫。圖形資料庫將在數據、預測和演算法的三軸上提供“可解釋的數據”。

追蹤數據的連鎖反應(Tracking the ripple effects from data)

圖資料庫在追蹤數據變化鏈和後續的其他連鎖反應也很出色,這促使了對數據和數據的影響力有更深入的了解。另一個具有潛力的領域是研究可解釋的預測。在可解釋預測的情境下,人們想了解特定預測使用了哪些權重和特徵。相關的一個範例是,神經網絡中的節點與知識圖譜(標籤)的關聯。當神經網絡使用一個節點時,用戶可以從知識圖譜中深入了解該節點的所有關聯數據。

圖形演算法有一天也可以讓我們知道哪些獨立的層級和臨界值可以引發預測,這不會在未來幾年內發生,但這方面的研究很有前景。早期的範例包含在加權線性關係的圖形資料庫中架設張量。早期很好的跡像也顯示出我們可以判斷每一層級的解釋和係數。

人工智慧中的重大錯誤將削弱公眾對它的信任。這使得品牌的注意力集中在解決這個問題上,因為人工智慧是未來不可或缺的一部分。人工智慧做出的預測和決策需要更容易被專家解釋並向公眾解釋。如果無法建立基本信任,人們會本能地拒絕不正確的建議。失去這些建議,也等於錯過避免訊息的氾濫並取得更有價值訊息的方法。

為了讓人工智慧充分發揮潛力,圖形技術是不可缺少的。沒有圖形技術,企業很難傳送AI 所需要的可解釋性元素。如果沒有值得信賴的人工智慧,品牌將承擔其後果。

可解釋人工智慧(Explainable AI, XAI)

可解釋人工智慧這個研究領域所關心的是,如何讓人類瞭解人工智慧下判斷的理由。

如果人工智慧相關技術要推廣到更多的領域,例如在法院裡協助量刑、在醫療上協助診斷、在保險與金融上判斷一個投資策略的優劣,或是在社會福利政策裡主導資源的分配,我們都會更迫切需要知道模型到底怎麼得出結論的。

可解釋人工智慧也將開啟許多人類與機器新的合作方式。例如許多領域會嘗試在缺乏足夠資料的情況下,引進機器學習技術,以借重它快速處理大量資料的能力。這時候,可解釋人工智慧能幫助人類判斷什麼時候該讓機器處理,什麼時候又該介入。例如在風險投資等金融領域中:金融場景內,特彆(別)強調模型的可解釋性,這樣才能把人的風控經驗和直觀感受跟數據表現結果關聯起來。

不過如果人工智慧相關技術要推廣到更多的領域,例如在法院裡協助量刑、在醫療上協助診斷、在保險與金融上判斷一個投資策略的優劣,或是在社會福利政策裡主導資源的分配,我們都會更迫切需要知道AI模型到底怎麼得出結論的。