為誰服務的AI?
近幾年來,AI涉及隱私權的風波可以說是越來越多,不管蒐集資料來用於大數據分析,將看似無關的資料分析出使用者的特性,抑或是利用人AI來發動大量惡意攻擊,都讓我們時時刻刻處於AI這把雙面刃的控制下(可以參考COSCUP 開源人年會:重構黑箱社會-演算法時代下的規範與程序正義這個演講所舉的經典案例-美國塔吉特超市是如何知道一名高中生懷孕)。
近期法令
美國在2019年由時任總統川普簽署NIST and the Executive Order on Maintaining American Leadership in Artificial Intelligence(AI領先行政命令),台灣也在同年擬具人工智慧發展基本法草案。歐盟也在今年(2021)4月公布了針對人工智慧的立法準則及框架,透過框架的組織來建立信任。我們可以在歐盟的Excellence and trust in artificial intelligence這篇文章中了解到其4項重要的政策目標,最令我感到興趣的是第四項「確保AI技術為人們服務」。
為何說-確保AI技術為人們服務
怎麼說呢,AI又強大又令人感到畏懼,其中一項重要的原因即是演算法的黑箱問題,會導致演算法黑箱主要有兩大因素,一是開發者不願公開其訓練方式及演算法,二是有可能連開發者都無法知道其透果AI所進行的高複雜性運算中間到底發生了什麼,在這邊可以衍生出一些問題,包含:演算法黑箱的論戰及法律問題、以及演算法的偏誤,在這裡姑且先忽略對於黑箱正反兩派的論戰,一個有趣的事實是「機器決策看似排出除了人為偏誤,實則將左右決策的人為因素隱藏於黑箱中」(同樣參考COSCUP 開源人年會的演講),大家常說的機器中立某個程度來說只是把人為的不中立至於黑箱中,因此,我們還要認為我們平常被AI介入的事情(例如Youtube的推薦影片或是Facebook的AI內容審查),AI是在為我們服務嗎?(本段延伸閱讀:打破 AI 黑箱、可解釋人工智慧、OpenAI)
另一項AI令人感到畏懼的原因是:AI可能比我們自己都還了解自己,換句話說,在AI面前我們可以說是被AI看光光,毫無隱私可言,這也造成了一項難題,也就是如何在「精準」與「隱私」之間取平衡。根據財團法人台灣網路資訊中心部落格的人工智慧與資料隱私之探討一文中指出關聯性知識演算法總能將將相當去識別化之資料(假名化資料)拼湊出我們的特性。著名的AI隱私權案例像是中華人民共和國的大規模監控,很明顯未經同意獲取隱私且不是為人們服務。
此外,前陣子大家常提到的AI犯罪也是AI為人們服務的反例,最具威脅的即是Deepfake,Bo Zhao等人在其針對深度偽造地理影像的研究中指出,連衛星影像都可能被偽造,我們平時認為眼見為憑的事物可能也將成為「眼見不為憑」。另外也極度影響我們生活的即是操縱金融股票市場、AI協助式追蹤、甚至會讓我們感到震驚的闖空門機器人(2012年科幻喜劇電影《機器人與法蘭克》已經逐漸成為可能)。就像20 種「AI 犯罪」危險度大排名,Deepfake 引領其他 5 種 AI 成新型犯罪催化劑這篇文章中的結論所言,未來可能會上演正義聯盟與邪惡集團之間的 AI 大戰,犯罪分子試圖設計出最棒的 AI 犯罪工具,安全、執法和其他有道德的 AI 設計者試圖設計最佳 AI 偵測與防禦系統。
結 論
因此,回到歐盟今年提出的立法準則,在經過上述的分享後,應該就會了解我什麼我對確保AI技術為人們服務這項目標特別感到興趣。如果今天我們無法發現AI正在默默為我們服務時,那不就是「我們為AI和其後勢力服務」了嗎?或許在這次歐盟制定其立法框架中的「確保AI技術為人們服務」時,主要不是考慮到我上述的「我們為AI服務了」問題,而是在於增強未來AI設計者的自律性、列管高風險應用並同時可以提升人工智慧產品的可信任度;但我認為針對上述觀點,我們應該要能夠從生活中察覺、從生活中觀察AI做了哪些事,或者像是澔奇科技創辦人孫憶明所說: 「學習與機器共處,善用它的優點,而避免過度依賴它,甚至被它控制」。
沒有留言 :
張貼留言