?

??智能?模型專?軟件可讓????編輯?成結果

2023-05-23 23:02
海外星云 2023年5期
關鍵詞:工具人工智能圖像

不久前,發表了一篇關于研究人員開發了新工具的文章,可以讓人們自己體驗到人工智能模型對不同性別和種族的固有偏見。

雖然新聞報道中寫了很多關于我們的偏見是如何反映在人工智能模型中的,但看到人工智能生成的人類如此的白人化、男性化和老派,仍然感到不舒服,DALL-E2尤其如此, 當得到“ 首席執行官” 或“ 董事( 總監)”這樣的提示時,它在97%的情況下會生成白人男性。

在人工智能創造的更廣闊的世界中,偏見問題比你想象的更根深蒂固。斯坦福大學研究員費德里科·比安奇表示,因為這些模型是由美國公司創建的,大多數訓練數據來自北美,所以當它們被要求生成再普通不過的日常用品時,比如門和房屋,它們會創造出看起來很“北美”的物體。

隨著人工智能生成的圖像不斷涌現,我們將看到大量反映美國偏見、文化和價值觀的圖像。誰知道人工智能會不會最終成為美國軟實力的主要工具呢?

那么,我們該如何解決這些問題呢?想解決人工智能模型訓練數據集中的偏差,肯定有很多的工作要做,不過最近的兩篇論文提出了一些有趣的新方法。

如果你可以直接告訴模型,讓它給你偏見更少的答案呢?

德國達姆施塔特技術大學的研究人員和人工智能初創公司Hugging Face開發了一種名為FairDiffusion的工具,可以更容易地調整人工智能模型來生成你想要的圖像類型。例如,你可以在不同的設置下生成首席執行官的照片,然后使用Fair Diffusion技術將圖像中的白人男性交換為女性或不同種族的人。

正如Hugging Face工具所展示的那樣,由于訓練數據中存在偏見,許多文本到圖像的人工智能模型對職業、性別和種族自帶非常強烈的偏見。德國研究人員的Fair Diffusion工具是基于他們開發的一種名為語義指導的技術,該技術允許用戶指導人工智能系統如何生成人類圖像并編輯結果。

參與這項工作的德國計算機科學教授克里斯蒂安·克爾斯汀表示,人工智能系統生成的圖像與原始圖像非常接近。

達姆施塔特大學的博士生費利克斯·弗里德里希說,這種方法允許人們創建他們想要的圖像,而不需要完成繁瑣且耗時的額外工作,即嘗試改進用于訓練人工智能模型的有偏見的數據集。

然而,這個工具并不完美。改變一些職業的圖片, 比如“ 洗碗工”,效果并不好,因為這個詞在英文中既可以表示洗碗機,也可以表示洗碗的人。最終,該模型所能產生的人的多樣性仍然受到人工智能系統訓練數據集限制。不過,即便這項工作還需要更多的改進,但它可能是減輕偏見的重要一步。

類似的技術似乎也適用于語言模型。正如最近報道的那樣,人工智能實驗室Anthropic的研究表明,只需簡單的指令,就可以引導大型語言模型產生更少的有害內容。Anthropic的研究人員測試了不同大小的語言模型,他們發現,如果這些模型足夠大,就會在用戶的要求下自我糾正一些偏見。

研究人員不知道為什么生成文本和圖像的人工智能模型會這樣做。Anthropic團隊認為,這可能是因為更大的模型有更大的訓練數據集,其中既包括許多有偏見或刻板印象的例子,也包括人們抵制和糾正這些偏見的例子。

人工智能工具在生成圖像方面越來越受歡迎??怂雇≌f,像FairDiffusion這樣的工具可能對那些希望其宣傳圖片反映社會多樣性的公司很有用。

這些對抗人工智能偏見的方法是受歡迎的,由此也衍生出一個明顯的問題,即它們是否從一開始就應該被納入模型中。目前,我們最好的生成式人工智能工具正在大規模放大有害的刻板印象。

值得注意的是,僅靠巧妙的工程手段并不能完全消滅偏見。正如美國國家標準與技術研究所(NIS)的研究人員在2023年的一份報告中指出的那樣,除了數據和算法,偏見還存在于更多地方。我們需要調查人類使用人工智能工具的方式,以及使用這些工具的更廣泛的社會背景,所有這些都可能導致偏見問題。

NIST表示,有效地緩解偏差將需要對人工智能模型如何構建,以及納入其中的數據,進行更多的審計和評估,還要提高透明度。

猜你喜歡
工具人工智能圖像
改進的LapSRN遙感圖像超分辨重建
波比的工具
波比的工具
有趣的圖像詩
2019:人工智能
準備工具:步驟:
人工智能與就業
“巧用”工具
數讀人工智能
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合