【友財網訊】-人工智能存在種族偏見問題。
【資料圖】
從不成比例地錯誤識別黑人和少數民族面孔的生物識別系統,到無法區分帶有明顯地區口音的聲音的語音識別軟件應用程序,人工智能在歧視方面還有很多工作要做。
在銀行和金融服務領域,放大現有偏見的問題可能會更加嚴重。
德勤(Deloitte)指出,人工智能系統的好壞最終取決于它們所獲得的數據:不完整或不具代表性的數據集可能會限制人工智能的客觀性,而訓練此類系統的開發團隊的偏見可能會使這種偏見循環持續下去。
*人工智能可能很笨*
Worldpay加密貨幣和Web3主管納比爾·曼吉(Nabil Manji)表示,了解人工智能產品的一個關鍵問題是,該技術的強度在很大程度上取決于用于訓練它的原始材料。
“關于一個人工智能產品有多好,有兩個變量。”曼吉在一次采訪中告訴美國消費者新聞與商業頻道(CNBC),“一是它可以訪問的數據,二是大型語言模型有多好。這就是為什么在數據方面,你會看到像Reddit和其他公司這樣的公司,他們已經公開表示,不會允許公司抓取他們的數據,你必須為此向他們付費。”
至于金融服務,曼吉說,許多后端數據系統分散在不同的語言和格式中。
“沒有一個是整合或協調的。”他補充道,“這將導致人工智能驅動的產品在金融服務領域的效率遠低于在其他垂直行業或其他公司的效率,在這些行業或公司中,它們擁有統一的、更現代的系統或數據訪問。”
曼吉建議,區塊鏈或分布式賬本技術可以作為一種更清晰地查看隱藏在傳統銀行混亂系統中的不同數據的方式。
然而,他補充說,銀行——作為受到嚴格監管、行動緩慢的機構——在采用新的人工智能工具方面,不太可能以與更靈活的科技同行相同的速度前進。
“你有微軟(Microsoft)和谷歌(Google),它們在過去的一二十年里被視為推動創新的力量。他們跟不上那個速度。然后你會想到金融服務。銀行并不以速度快著稱。”曼吉說。
*銀行業的人工智能問題*
推特(Twitter)前機器學習道德、透明度和問責制負責人魯曼·喬杜里(Rumman Chowdhury)表示,借貸是人工智能系統對邊緣化社區的偏見如何抬頭的一個主要例子。
喬杜里在阿姆斯特丹Money20/20的一個小組討論會上說:“算法歧視在貸款中實際上非常明顯。芝加哥有拒絕向主要是黑人社區發放貸款的歷史。"
20世紀30年代,芝加哥以“劃紅線”的歧視性做法而聞名,在這種做法中,房地產的信譽在很大程度上取決于特定社區的種族人口統計數據。
“芝加哥所有地區的墻上都會有一幅巨大的地圖,他們會在所有主要是非洲裔美國人的地區劃紅線,不給他們貸款。”她補充說。
“幾十年后,你正在開發算法來確定不同地區和個人的風險。雖然你可能沒有包括某人種族的數據點,但這是隱含的。”
事實上,旨在增強人工智能領域黑人女性權能的組織“人工智能中的黑人女性”(Black Women in Artificial Intelligence)的創始人安格爾·布什(Angle Bush)告訴CNBC,當人工智能系統專門用于貸款審批決策時,她發現存在復制用于訓練算法的歷史數據中現有偏見的風險。
“這可能導致邊緣化群體的個人被自動拒絕貸款,加劇種族或性別差異。”布什補充說。
“銀行必須認識到,將人工智能作為一種解決方案來實施,可能會無意中延續歧視。”她說。
在人工智能和機器學習領域工作了十多年的開發人員弗羅斯特·李(Frost Li)告訴CNBC,人工智能集成的“個性化”維度也可能有問題。
“人工智能的有趣之處在于我們如何選擇‘核心功能’進行培訓。”弗羅斯特·李說,他創立并經營著Loup,一家幫助在線零售商將人工智能整合到他們的平臺上的公司。“有時候,我們會選擇與我們想要預測的結果無關的特征。”
弗羅斯特·李說,當人工智能應用于銀行業時,當一切都在計算中錯綜復雜時,很難識別出偏見的“罪魁禍首”。
“一個很好的例子是,有多少金融科技初創公司是專門為外國人服務的,因為一個東京大學畢業生即使在谷歌工作,也無法獲得任何信用卡;然而,人們可以很容易地從社區大學信用社獲得貸款,因為銀行家更了解當地的學校。”弗羅斯特·李補充說。
生成式人工智能通常不用于創建信用評分或消費者風險評分。
“這不是這個工具的初衷。”Taktile的首席運營官尼克拉斯·古斯克(Niklas Guske)說,Taktile是一家幫助金融科技公司自動化決策的初創公司。
相反,古斯克說,最強大的應用程序是預處理文本文件等非結構化數據,如分類交易。
“這些信號可以被輸入到一個更傳統的承保模式中。”古斯克說,“因此,生成式人工智能將提高此類決策的基礎數據質量,而不是取代常見的評分流程。”
但這也很難證明。例如,蘋果公司和高盛公司被指控給予女性更低的蘋果卡限額。但是,在監管機構沒有發現性別歧視的證據后,這些指控被紐約州金融服務局駁回。
根據歐洲反種族主義網絡主任金·斯莫特(Kim Smouter)的說法,問題在于證實基于人工智能的歧視是否真的發生了,具有挑戰性。
他說:“大規模部署人工智能的困難之一,是這些決定如何產生的不透明性,以及如果一個種族化的個人甚至注意到存在歧視,存在什么補救機制。”
“個人對人工智能系統如何工作知之甚少,事實上,他們的個案可能只是整個系統的冰山一角。相應地,也很難發現事情出錯的具體情況。”他補充道。
斯莫特引用了荷蘭兒童福利丑聞的例子,其中數千份福利申請被錯誤地指控為欺詐。在2020年的一份報告發現受害者“受到制度偏見的對待”后,荷蘭政府被迫辭職。
斯莫特說,這“證明了這種功能障礙傳播的速度有多快,證明它們并在發現后得到補救有多困難,同時造成了重大的、往往是不可逆轉的損害。”
*監管人工智能的偏見*
喬杜里說,有必要建立一個像聯合國這樣的全球監管機構,來解決圍繞人工智能的一些風險。
盡管人工智能已被證明是一種創新工具,但一些技術專家和倫理學家對該技術的道德和倫理合理性表示懷疑。業內人士表達的最大擔憂是錯誤信息;人工智能算法中嵌入的種族和性別偏見;以及類似ChatGPT的工具產生的“幻覺”。
“我很擔心,由于生成式人工智能,我們正在進入這個后真相世界,在這個世界中,我們在網上看到的任何東西都不可信——任何文本、任何視頻、任何音頻都不可信,但我們如何獲得我們的信息?我們如何確保信息的高度完整性?”喬杜里說道。
現在是對人工智能進行有意義的監管的時候了——但知道像歐盟人工智能法案這樣的監管提案生效需要多長時間,一些人擔心這不會發生得足夠快。
“我們呼吁提高算法的透明度和問責制,以及它們如何運行,并呼吁一個外行人的聲明,允許非人工智能專家的個人自行判斷,測試證明和結果公布,獨立的投訴流程,定期審計和報告,以及在設計和考慮部署技術時讓種族化社區的參與。”斯莫特說。
斯莫特表示,人工智能法案是此類監管框架中的第一個,它納入了基本權利方法和補救等概念,并補充說,該法規將在大約兩年內實施。
“如果能縮短這個時間,以確保透明度和問責制是創新的核心,那就太好了。”他說。
文章來源友財網由整理發布,轉載請注明出處。
關鍵詞: