?

人工智能就像是心智的蒸汽機 人類的能力其實會被放大

2023-10-27 06:38綜合整理報道
海外星云 2023年10期
關鍵詞:霍夫曼價值觀人工智能

隨著科技的飛速發展,人工智能已經深入到我們日常生活的每一個角落。

從智能家居到自動駕駛汽車,人工智能不僅改變了我們的生活方式,還對社會結構和人類的角色產生了深遠的影響。在這波技術浪潮中,我們看到了人工智能極大地提升了人類的生產力,但我們是否真正思考過人類與人工智能的關系?兩者之間的互動是否真的是我們所期望的那樣?

為了尋找問題的答案,領英聯合創始人里德·霍夫曼做了一次有趣而大膽的嘗試,他與GPT-4進行了重度而深入的互動,并且把兩者的互動整理、記錄,最后編輯成了一本名為《GPT時代人類再騰飛》的書。

這本由人類和人工智能合作完成的書中,霍夫曼分享了自己與GPT-4的對話,包括他所輸入的提示、提出的問題、GPT-4的回應,以及由此引發的深入思考和獨到見解。

“這不是一本詳盡無遺的(介紹人工智能和GPT-4的)書,而更像是一篇游記,事關一趟非正式的勘探與發現之旅,”霍夫曼解釋道,“由我和GPT-4在諸多道路中做出選擇?!?/p>

他毫無保留地分享了自己對人工智能未來發展的愿景。作為技術界的重要影響者和風險投資家,霍夫曼對人工智能的未來的見解不僅令人啟發,而且對于任何渴望了解人類社會未來數字化軌跡的人來說都是必不可少的。

取代?轉型?還是增加?

隨著人工智能走進我們的生活,一種“人工智能將取代人類大部分工作”的聲音逐漸出現,電影和文學作品也經常描繪出一個由機器人統治的未來。在ChatGPT發布后,這種說法似乎得到了進一步印證。

不過霍夫曼并不認可這種說法。他承認,雖然某些人類活動,如駕駛和客服,可能會因為安全和效率的原因而更廣泛地自動化,但在更多場景下,人工智能是人類的合作伙伴。

現在的商用飛機就是一個很好的例子。在飛行的大部分時間里,這些飛機都處在自動駕駛模式中。但飛行員的角色并沒有因此而被取代,自動駕駛軟件提高了飛機的安全性和效率,而飛行員作為人類的決策能力和隨機應變同樣重要。

在霍夫曼看來,人工智能不是來“取代人類的”,而是像“副駕駛”和“機器伙伴”一樣輔助人類?!拔也幌雽⑷斯ぶ悄苓^度擬人化,”他表示,“但它將在幫助我們完成各種任務中發揮重要作用,從簡單的數據檢索到復雜的決策過程,我們可以通過提問的方式從它身上獲得更多的信息和價值,就像現在我們遇到不懂的事情,可以去咨詢朋友和同事一樣?!?/p>

這可以讓人類變得更強大,開辟新的前景。

人類進化和技術進步是深深地交織在一起的。從發明輪子到互聯網的誕生,每一個重大的技術飛躍都是人類聰明才智和適應能力的結晶。汽車、火車、輪船,這些交通工具改變了我們與空間互動的方式,拓展了人類的能力,而人工智能也將扮演類似的角色。

“人工智能就像是心智的蒸汽機(注:蒸汽機的發明開啟了第二輪工業革命,因此這句話的引申含義是,人工智能對于心智來說是革命性的),它將幫助我們更好地完成許多我們正在做的事情,人類的能力會被放大,”霍夫曼說道。

因此,人工智能的到來,可能會讓一些工作被取代,但更多的工作將轉型和增加。

霍夫曼認為,被改變的工作將是那些涉及到“信息處理”和“信息生成”的工作。這里的“信息”不單單是文字信息或代碼,而是與“決策”有關的信息。例如,通過文字需求繪制圖片,根據癥狀開具處方等。

至于那些會被創造出來的新職業,除了提示工程師(prompt engineer)之外,我們可能還要再等等才能看。但霍夫曼對此持樂觀態度。

充滿挑戰,但前途光明

我們看到了人工智能的好處,但也不能忽略它的應用和普及所帶來的挑戰。

圍繞人工智能的最緊迫的關注點之一是偏見,它們主要來自于訓練模型所用的數據。對此,霍夫曼提出了一個有趣的解決方案:使用人工智能來訓練其他人工智能系統以減少偏見。通過設定特定的規則并使用人工智能來確保這些規則得到貫徹,或許可以更有效地減少模型中固有的偏見。這樣一來,對偏見的糾正就不僅僅停留在人為的干預,而且人工智能可以花費相當于人類數百年的時間來確保偏見得到處理。

另一個挑戰是數據隱私?;舴蚵J為,我們要區分數據量和數據性質之間的區別。盡管人工智能模型需要大量的數據,但它不一定必須使用私人或敏感信息。他認為,隨著用戶從人工智能中看到切實存在的好處,他們將更愿意分享數據,前提是他們的隱私不會受到威脅。

ChatGPT和GPT-4只是生成式人工智能的用例之一,類似的還有Stable Diffusion和Midjourney等圖像生成工具,這些工具引發了關于知識產權問題的爭論。

在霍夫曼看來,這些來自藝術家和作家的主張更具挑戰性:關于他們的作品被用來訓練人工智能模型的擔憂,本質上是他們“可能誤解了模型的工作原理”。他指出,用于訓練的數據量之大使得任何單一作品的貢獻都是微不足道的。

“GPT用了1.4萬億個單詞進行訓練,然后它抓取了我發在公開網絡上的10萬字,那我該按比例獲得補償嗎?”他解釋道,“我這10萬字對模型的貢獻不僅很小,更重要的是它難以量化?!?/p>

一個潛在的解決方案是,讓模型訓練借鑒搜索引擎的數據抓取,創作者可以選擇是否將他們的作品包括在人工智能訓練數據集中,比如打上不可收錄的版權標簽。

最后一個要重視的挑戰是人工智能幻覺。這些幻覺本質上是人工智能輸出的內容存在事實性錯誤。在霍夫曼著書的過程中,他也不止一次地遇到過這個問題。

“想用好GPT-4這類的工具,就要探索、試驗和學習,不斷地重復使用。如果答案不滿意,就改進提示再試一次,”他表示。

霍夫曼對未來持樂觀態度。他相信,隨著人工智能模型的演變和進化,它們的準確性將得到提高。目前科技公司嘗試的辦法,比如整合搜索結果和其他數據來源,也可以進一步增強人工智能生成內容的可靠性。

霍夫曼強調,包括人工智能在內的技術,從來就不是中立的,本質上包含價值觀。開發者在塑造這些價值觀中起到了關鍵作用。為確保人工智能與人類的價值觀和福祉保持一致,霍夫曼建議采取多方面的方法。

首先是清晰的溝通,開發者應明確闡述指導他們人工智能工具的價值觀和原則;其次是保證質量,定期進行測試,以確保這些價值觀得到一致的維護;最后是建立反饋渠道,與用戶、企業和政府的開放溝通渠道可以提供寶貴的反饋,確保人工智能與社會需求保持一致。

猜你喜歡
霍夫曼價值觀人工智能
我的價值觀
圖說 我們的價值觀
抽象表現主義藝術先驅——漢斯·霍夫曼
2019:人工智能
人工智能與就業
諾獎得主霍夫曼團隊落戶深職院
數讀人工智能
下一幕,人工智能!
知名企業的價值觀
價值觀就在你我的身邊
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合