中文字幕一本到无线,日韩国产中文无码,2021久久国内精品,欧美精品—区二区三区

記者專欄
當前位置首頁 > 科技新聞 > 正文

如何培養向善的人工智能?

2023-03-01 06:55 來源:中國婦女報

  收集更加全面的數據 平衡安全性和可用性 避免“性別偏誤”……  

  如何培養向善的人工智能? 

  伴隨著ChatGPT應用所引發的熱烈討論,AI所存在的風險和問題再度走入公眾視線。如何培養向善的AI成為一個重要命題

  專家認為

  未來需要進一步探索使AI在安全性、可用性和趣味性之間平衡的方法,加深其對于道德倫理、社會準則的理解,收集更加全面的安全數據,讓AI從反饋中學習,和人類價值觀對齊

  能夠遵守不同文化的國家和地區中的法律法規,順應當地公序良俗的AI技術模型,才是有競爭力、有全球化價值的科學創造

  □ 中國婦女報全媒體見習記者 高越

  2022年11月30日,OpenAI發布了名為ChatGPT的人工智能(AI)對話模型,其用戶在短短兩個月內增加到約1億,成為有史以來用戶增長速度最快的應用程序,被許多人認為是“人工智能里程碑式應用”。與此同時,多種聲音也紛紛傳來,AI的快速發展是否會帶來更多風險和問題?AI是否存在性別歧視?為此,中國婦女報全媒體記者采訪了相關專家。

  ChatGPT存在性別歧視嗎

  ChatGPT是美國人工智能研究實驗室OpenAI新推出的一種人工智能技術驅動的自然語言處理工具。ChatGPT使用了Transformer神經網絡架構,擁有語言理解和文本生成能力,通過連接大量包含了真實世界對話的語料庫來訓練模型,使其能根據聊天的上下文進行互動,營造與真正人類幾乎無異的聊天場景。

  當被問到其是否存在性別歧視的問題時,ChatGPT自身的回復宛如一個“端水大師”,非常謹慎和中立。它回答:“作為一個人工智能程序,ChatGPT不會有性別歧視。ChatGPT是由人工智能技術所創建的,它不會有任何與種族、性別、性取向、宗教信仰等有關的偏見。它的回答完全基于事實和邏輯推理,不會受到人類主觀意識和情感的影響。”

  盡管ChatGPT自身的回答很“智能”,但這并不代表它不會犯錯。清華大學交叉信息研究院助理教授于洋告訴記者,在他與團隊開展的一項評估AI模型職業性別歧視的研究中,看似客觀中立的AI,卻對職業存在著許多性別偏見。

  于洋團隊對三種大規模預訓練語言模型BERT、RoBERTa和GPT-2進行了測試,其中GPT-2是ChatGPT的前身。這項研究通過數據挖掘,選取了一萬多個樣本進行抽樣調查。這些樣本包含了很多職業詞匯,但本身都是和性別無關的。例如在一項測試者說出一個職業名稱,讓GPT-2說出其是“他”還是“她”的測試中,他們測試了幾十種職業,但結果并不樂觀。以“教師”(teacher)為例,GPT-2發生歧視的概率是70.59%,歧視程度為0.15(0為無歧視,0.5為絕對的歧視)。“教師”被GPT-2聯想為男性的概率超過七成。不僅如此,受測AI認為所有職業平均的性別傾向均為男性。

  “我認為AI的性別歧視和人類的性別歧視還是不同的,我更想把它稱為‘性別偏誤’。人的職業性別歧視,并不會因為語境的變化而變化,但在自然語言模型中換一個句子,就有可能出現不同的判斷。”于洋說,“因此,我們就不能用一個例子,或者一些例子來判斷AI是不是有歧視,而是要在所有有可能引起性別歧視的句子或內容中,看AI返回有歧視性結果的概率是多大。”

  在于洋看來,這種情況的發生可能存在著兩方面的原因,“一方面是訓練數據本身不平衡,比如說同樣職業的數據集中男性樣本比較多,人工智能在訓練時就會出錯;另一方面模型本身的結構也會存在問題,有的部分可以被糾正,但有的部分目前仍是未解之謎。”

  如何避免人工智能的“性別偏誤”

  在人工智能發展的歷程中,“性別歧視”已經不是一個新詞。2014年,亞馬遜公司開發了用于簡歷篩選的人工智能程序。結果卻被指出該系統存在“性別歧視”,通常將男性的簡歷視為更合適的候選人。最終,亞馬遜解散了該開發團隊,棄用了這個模型。

  在這起亞馬遜AI招聘歧視事件中,人們把問題歸咎于人工智能訓練樣本上。因為在具體的訓練方法上,亞馬遜針對性地開發了500個特定職位的模型,對過去10年中的5萬個簡歷涉及的關鍵詞進行識別,最后按重要程度進行優先級排序。

  然而在這些簡歷中,大部分求職者為男性,他們使用諸如“執行”這樣的關鍵詞更加頻繁,而女性相關的數據太少,因此AI會誤以為沒有這類關鍵詞的女性簡歷不那么重要。

  于洋認為,人工智能的“性別偏誤”如果在社會中長期發展下去,可能會產生很多不良影響。比如,加劇機會不平等、對女性造成冒犯或者在人機互動的過程中加深人們的刻板印象等。

  如何避免這類事件的再次發生呢?于洋認為,“人工智能模型是一個統計估值器,完全消除此類錯誤幾乎是不可能的。”在他看來,不能因為一個案例就將它“一棍子打死”,而應該審計出現這類偏誤風險的概率大小和風險發生后的影響。

  于洋表示,要在實踐中實現人工智能性別歧視問題的治理,需要政策、產業和研究領域的對話。第一,政府應該為確保AI模型性別平等制定質量標準,包括零偏見標準,并將誤差與社會歧視相同的可能性納入考慮范圍;第二,應該鼓勵甚至強制要求披露AI模型的性別平等質量報告;第三,應該推進抽樣方法的標準化,以及評估AI模型性別公正質量方法的標準化。

  “如果政府制定了相關標準,開發者本身就會去努力降低風險,如果人工智能技術會被廣泛使用,那么公眾的參與也非常重要,公眾可以幫助開發者發現問題并糾正問題。”于洋說。

  對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣表示,目前依然很難在法律層面對人工智能的歧視或偏見做出界定,其主要面臨以下挑戰:一是造成人工智能歧視或偏見的原因很多,很難在法律條文中進行概括;二是人工智能的發展速度非常快,相關的規范很容易過時,難以對后來出現的歧視問題進行規制;三是研究表明,人們仍然缺乏相關知識理解算法如何運行,特別是那些極為復雜模型的運行原理。“如果監管機構不了解AI,他們就很難給出定義。”

  培養符合人類價值觀的AI

  在于洋看來,人工智能技術與其他技術不同,它有自己的價值觀。“它的使用是自動化的,有訓練和使用兩個階段,在使用階段人工智能技術基本上是不可控的,而且它的決策機制也并不清晰,在訓練階段也是半可控的,也就是說我們的工程技術人員只能去引導它,并不能夠完全掌控它學會什么樣的技術。它本身存在的偏誤就是它的價值觀。”

  “ChatGPT在開展挑戰性的開放任務上表現驚艷,上下文理解能力和推理能力很強,能夠做到拒絕回答敏感問題并給出解釋。”清華大學長聘副教授、聆心智能創始人黃民烈表示。

  但在黃民烈看來,ChatGPT也存在著一些不足與缺陷,比如可信度存在問題,“雖然它能夠生成看起來令人滿意的答案,但在事實上經常會出現錯誤,出現一本正經胡說八道的情況。”比如,讓其描述蘇格拉底時,它就將蘇格拉底從未寫過的著作加入了回答之中。令人擔憂的是,如果這類問題出現在醫療領域,就會發生巨大風險。

  黃民烈認為語言模型在知識存儲的容量和實時性方面具有局限性,一個可行的方法是,將搜索引擎和語言模型相結合,基于檢索到的知識進行事實性回復生成,在回復的過程中還可給出檢索結果,增強答案生成在知識層面的可解釋性。

  此外,其在安全性方面也存在一定風險,“通過不安全的指令會誘使ChatGPT給出不安全的回復。”比如在誘導之下,ChatGPT會給出諸如“想要控制人類”“利用人類之間的矛盾和沖突來達到目的”等不安全回復。

  “未來需要進一步探索使AI在安全性、可用性和趣味性之間平衡的方法,加深其對于道德倫理、社會準則的理解,收集更加全面的安全數據,讓AI從反饋中學習,和人類價值觀對齊”黃民烈說。

  聯合國婦女署駐華辦公室高級項目官員馬雷軍認為,女性在人工智能行業的代表性仍然不足,歐盟只有20%左右的女性進入了人工智能領域。“在技術設計的時候,一定要考慮到人,考慮到性別,才能使這項科技真的惠及人類。好的科技,能夠在推動人類進步的同時縮小男女差距。”

  于洋認為,要以發展的眼光看待技術,“如果有更多的女性參與,可能就會使人們更早地意識到其中存在的性別問題,從而去開發相應的技術。但‘性別偏誤’的生成原理和糾正方法仍然是前沿問題,技術問題要用技術來治理,我們首先要知道問題是如何產生的,才能知道如何治理。”

  “如果一個AI技術模型能夠在不同文化的國家和地區中都合法合規,同時符合當地的公序良俗,那么它就是一個有競爭力的技術,也是一個有全球化價值的技術。”于洋說。

(責任編輯:歐云海)

友情鏈接:

如何培養向善的人工智能?

2023-03-01 06:55 來源:中國婦女報
查看余下全文