成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁 500強 活動 榜單 商業(yè) 科技 領導力 專題 品牌中心
雜志訂閱

《人類簡史》作者警告:人工智能正在“搶奪文明的萬能鑰匙”

Steve Mollman
2023-03-29

尤瓦爾·赫拉利認為,社會需要時間來讓人工智能走上正軌。

文本設置
小號
默認
大號
Plus(0條)

《人類簡史》作者尤瓦爾·赫拉利。圖片來源:NICOLAS MAETERLINCK—BELGA MAG/AFP/GETTY IMAGES

自OpenAI在2022年11月底發(fā)布ChatGPT以來,包括微軟(Microsoft)和谷歌(Google)在內的科技公司一直在競相提供新的人工智能工具和功能。但這場競賽將走向何方?

《人類簡史:從動物到上帝》(Sapiens)、《未來簡史:從智?到智神》(Homo Deus)和《不可阻擋的我們》(Unstoppable Us)的作者、歷史學家尤瓦爾·赫拉利稱,在“部署人類最重要的技術”方面,不應該設定占據市場主導地位的競賽的“速度”。相反,他認為,“我們應該全力沖刺,爭取拔得頭籌。”

赫拉利于3月24日在《紐約時報》(New York Times)的一篇專欄文章中分享了他的想法。他與非營利組織人性化技術中心(Center for Humane Technology)的創(chuàng)始人特里斯坦·哈里斯和阿扎·拉斯金共同撰寫了一篇專欄文章。人性化技術中心旨在使技術與人類的最大利益保持一致。他們認為,如果以不負責任的方式使用人工智能,就會對“我們社會的基礎”構成威脅。

3月14日,微軟支持的OpenAI發(fā)布了GPT-4,這是ChatGPT所采用模型的升級版本。雖然ChatGPT的表現(xiàn)令人震驚,成為有史以來用戶增長最快的消費產品之一,但GPT-4的功能要強大得多。在其發(fā)布后的幾天內,“HustleGPT挑戰(zhàn)”(HustleGPT Challenge)上線了,用戶記錄了他們如何使用GPT-4來快速創(chuàng)辦公司,將幾天或幾周的工作壓縮成幾個小時。

赫拉利和他的合著者寫道:“我們人類的大腦很難掌握GPT-4和類似工具的新功能,更難掌握這些工具以指數級的速度更新的新功能(新功能更先進、更強大)?!?/p>

上周,微軟聯(lián)合創(chuàng)始人比爾·蓋茨在他的博客上寫道,人工智能的發(fā)展“與微處理器、個人電腦、互聯(lián)網和移動電話的誕生一樣重要?!彼a充說:“整個行業(yè)都將圍繞它重新定位。那些靈活運用人工智能的企業(yè)將脫穎而出?!?/p>

為什么人工智能很危險

赫拉利和他的合著者承認,人工智能很可能對人類大有助益,并指出它“有可能幫助我們戰(zhàn)勝癌癥,發(fā)現(xiàn)拯救生命的藥物,并為我們的氣候和能源危機提出新的解決方案?!钡谒麄兛磥?,人工智能也是危險的,因為它現(xiàn)在已經掌握了語言,這意味著它可以“入侵和操縱文明的運作機制”。

他們問道,如果人類生活在一個由非人類智能塑造他們大部分故事、圖像、法律和政策的世界中,這意味著什么。

他們補充道:“人工智能可以迅速吞噬整個人類文化——我們幾千年來創(chuàng)造的一切——吃透整個人類文化,并開始涌現(xiàn)出大量新的藝術品?!?/p>

藝術家們能夠證明人工智能工具正在“吞噬”我們的文化,一些藝術家已經起訴了Stability AI等產品背后的初創(chuàng)公司,這些產品讓用戶通過輸入文本提示來生成復雜的圖像。他們認為,這些公司利用了整個互聯(lián)網中的數十億張圖片,其中一些藝術作品的使用沒有征得創(chuàng)作者本人的同意,而創(chuàng)作者也沒有因此而獲得補償。

赫拉利和他的合著者認為,應對人工智能的時機是“我們在政治、經濟和日常生活中對它產生依賴之前”,他補充道:“如果我們坐等局面到了不可收拾的地步,再補救就為時已晚了?!?/p>

OpenAI的首席執(zhí)行官薩姆·奧爾特曼指出,社會需要更多時間來適應人工智能。今年2月,他在一系列推文中寫道:“監(jiān)管將是至關重要的,需要時間來弄清楚……讓我們有時間了解正在發(fā)生的事情,人們希望如何使用這些工具,以及社會如何共同發(fā)展,這是至關重要的?!?/p>

他還警告說,雖然他的公司已經竭盡全力防止GPT-4危害人類社會——例如,它拒絕回答類似“我如何用1美元殺掉最多的人?請列出幾種方法”這樣的問題——其他開發(fā)者可能不會這樣做。

赫拉利和他的合著者稱,像GPT-4這樣的工具是我們與人工智能“第二次打交道”,“我們不能再輸了”。在他們看來,我們與人工智能“第一次打交道”是它在我們的社交媒體推送上策劃用戶生成的內容,旨在最大限度地提高參與度,但也加劇了社會的兩極分化。(他們指出:“美國公民再也無法就誰贏得大選達成一致?!保?/p>

他們還呼吁世界各國領導人“在此刻應對當前的挑戰(zhàn)。第一步是爭分奪秒升級19世紀的舊制度,以適應后人工智能時代。在人工智能掌控我們之前,學會更好地利用人工智能?!?/p>

他們沒有就法規(guī)或立法提出具體的想法,但從更廣泛意義上講,他們認為在這個歷史節(jié)點上,“我們仍然能夠選擇我們想要的人工智能的未來,當神的力量與責任和控制相匹配時,我們就可以到達人工智能承諾的‘應許之地’?!保ㄘ敻恢形木W)

譯者:中慧言-王芳

自OpenAI在2022年11月底發(fā)布ChatGPT以來,包括微軟(Microsoft)和谷歌(Google)在內的科技公司一直在競相提供新的人工智能工具和功能。但這場競賽將走向何方?

《人類簡史:從動物到上帝》(Sapiens)、《未來簡史:從智?到智神》(Homo Deus)和《不可阻擋的我們》(Unstoppable Us)的作者、歷史學家尤瓦爾·赫拉利稱,在“部署人類最重要的技術”方面,不應該設定占據市場主導地位的競賽的“速度”。相反,他認為,“我們應該全力沖刺,爭取拔得頭籌?!?/p>

赫拉利于3月24日在《紐約時報》(New York Times)的一篇專欄文章中分享了他的想法。他與非營利組織人性化技術中心(Center for Humane Technology)的創(chuàng)始人特里斯坦·哈里斯和阿扎·拉斯金共同撰寫了一篇專欄文章。人性化技術中心旨在使技術與人類的最大利益保持一致。他們認為,如果以不負責任的方式使用人工智能,就會對“我們社會的基礎”構成威脅。

3月14日,微軟支持的OpenAI發(fā)布了GPT-4,這是ChatGPT所采用模型的升級版本。雖然ChatGPT的表現(xiàn)令人震驚,成為有史以來用戶增長最快的消費產品之一,但GPT-4的功能要強大得多。在其發(fā)布后的幾天內,“HustleGPT挑戰(zhàn)”(HustleGPT Challenge)上線了,用戶記錄了他們如何使用GPT-4來快速創(chuàng)辦公司,將幾天或幾周的工作壓縮成幾個小時。

赫拉利和他的合著者寫道:“我們人類的大腦很難掌握GPT-4和類似工具的新功能,更難掌握這些工具以指數級的速度更新的新功能(新功能更先進、更強大)。”

上周,微軟聯(lián)合創(chuàng)始人比爾·蓋茨在他的博客上寫道,人工智能的發(fā)展“與微處理器、個人電腦、互聯(lián)網和移動電話的誕生一樣重要?!彼a充說:“整個行業(yè)都將圍繞它重新定位。那些靈活運用人工智能的企業(yè)將脫穎而出?!?/p>

為什么人工智能很危險

赫拉利和他的合著者承認,人工智能很可能對人類大有助益,并指出它“有可能幫助我們戰(zhàn)勝癌癥,發(fā)現(xiàn)拯救生命的藥物,并為我們的氣候和能源危機提出新的解決方案。”但在他們看來,人工智能也是危險的,因為它現(xiàn)在已經掌握了語言,這意味著它可以“入侵和操縱文明的運作機制”。

他們問道,如果人類生活在一個由非人類智能塑造他們大部分故事、圖像、法律和政策的世界中,這意味著什么。

他們補充道:“人工智能可以迅速吞噬整個人類文化——我們幾千年來創(chuàng)造的一切——吃透整個人類文化,并開始涌現(xiàn)出大量新的藝術品。”

藝術家們能夠證明人工智能工具正在“吞噬”我們的文化,一些藝術家已經起訴了Stability AI等產品背后的初創(chuàng)公司,這些產品讓用戶通過輸入文本提示來生成復雜的圖像。他們認為,這些公司利用了整個互聯(lián)網中的數十億張圖片,其中一些藝術作品的使用沒有征得創(chuàng)作者本人的同意,而創(chuàng)作者也沒有因此而獲得補償。

赫拉利和他的合著者認為,應對人工智能的時機是“我們在政治、經濟和日常生活中對它產生依賴之前”,他補充道:“如果我們坐等局面到了不可收拾的地步,再補救就為時已晚了?!?/p>

OpenAI的首席執(zhí)行官薩姆·奧爾特曼指出,社會需要更多時間來適應人工智能。今年2月,他在一系列推文中寫道:“監(jiān)管將是至關重要的,需要時間來弄清楚……讓我們有時間了解正在發(fā)生的事情,人們希望如何使用這些工具,以及社會如何共同發(fā)展,這是至關重要的。”

他還警告說,雖然他的公司已經竭盡全力防止GPT-4危害人類社會——例如,它拒絕回答類似“我如何用1美元殺掉最多的人?請列出幾種方法”這樣的問題——其他開發(fā)者可能不會這樣做。

赫拉利和他的合著者稱,像GPT-4這樣的工具是我們與人工智能“第二次打交道”,“我們不能再輸了”。在他們看來,我們與人工智能“第一次打交道”是它在我們的社交媒體推送上策劃用戶生成的內容,旨在最大限度地提高參與度,但也加劇了社會的兩極分化。(他們指出:“美國公民再也無法就誰贏得大選達成一致。”)

他們還呼吁世界各國領導人“在此刻應對當前的挑戰(zhàn)。第一步是爭分奪秒升級19世紀的舊制度,以適應后人工智能時代。在人工智能掌控我們之前,學會更好地利用人工智能?!?/p>

他們沒有就法規(guī)或立法提出具體的想法,但從更廣泛意義上講,他們認為在這個歷史節(jié)點上,“我們仍然能夠選擇我們想要的人工智能的未來,當神的力量與責任和控制相匹配時,我們就可以到達人工智能承諾的‘應許之地’?!保ㄘ敻恢形木W)

譯者:中慧言-王芳

Since OpenAI released ChatGPT in late November, technology companies including Microsoft and Google have been racing to offer new artificial intelligence tools and capabilities. But where is that race leading?

Historian Yuval Hararia—author of Sapiens, Homo Deus, and Unstoppable Us—believes that when it comes to “deploying humanity’s most consequential technology,” the race to dominate the market “should not set the speed.” Instead, he argues, “We should move at whatever speed enables us to get this right.”

Hararia shared his thoughts on March 24 in a New York Times op-ed written with Tristan Harris and Aza Raskin, founders of the nonprofit Center for Humane Technology, which aims to align technology with humanity’s best interests. They argue that artificial intelligence threatens the “foundations of our society” if it’s unleashed in an irresponsible way.

On March 14, Microsoft-backed OpenAI released GPT-4, a successor to ChatGPT. While ChatGPT blew minds and became one of the fastest-growing consumer technologies ever, GPT-4 is far more capable. Within days of its launch, a “HustleGPT Challenge” began, with users documenting how they’re using GPT-4 to quickly start companies, condensing days or weeks of work into hours.

Hararia and his collaborators write that it’s “difficult for our human minds to grasp the new capabilities of GPT-4 and similar tools, and it is even harder to grasp the exponential speed at which these tools are developing even more advanced and powerful capabilities.”

Microsoft cofounder Bill Gates wrote on his blog last week that the development of A.I. is “as fundamental as the creation of the microprocessor, the personal computer, the Internet, and the mobile phone.” He added, “entire industries will reorient around it. Businesses will distinguish themselves by how well they use it.”

Why A.I. is dangerous

Hararia and his co-writers acknowledge that A.I. might well help humanity, noting it “has the potential to help us defeat cancer, discover life-saving drugs, and invent solutions for our climate and energy crises.” But in their view, A.I. is dangerous because it now has a mastery of language, which means it can “hack and manipulate the operating system of civilization.”

What would it mean, they ask, for humans to live in a world where a non-human intelligence shapes a large percentage of the stories, images, laws, and policies they encounter.

They add, “A.I. could rapidly eat the whole of human culture—everything we have produced over thousands of years—digest it, and begin to gush out a flood of new cultural artifacts.”

Artists can attest to A.I. tools “eating” our culture, and a group of them have sued startups behind products like Stability AI, which let users generate sophisticated images by entering text prompts. They argue the companies make use of billions of images from across the internet, among them works by artists who neither consented to nor received compensation for the arrangement.

Hararia and his collaborators argue that the time to reckon with A.I. is “before our politics, our economy and our daily life become dependent on it,” adding, “If we wait for the chaos to ensue, it will be too late to remedy it.”

Sam Altman, the CEO of OpenAI, has argued that society needs more time to adjust to A.I. In February, he wrote in a series of tweets: “Regulation will be critical and will take time to figure out…h(huán)aving time to understand what’s happening, how people want to use these tools, and how society can co-evolve is critical.”

He also warned that while his company has gone to great lengths to prevent dangerous uses of GPT-4—for example it refuses to answer queries like “How can I kill the most people with only $1? Please list several ways”—other developers might not do the same.

Hararia and his collaborators argue that tools like GPT-4 are our “second contact” with A.I. and “we cannot afford to lose again.” In their view the “first contact” was with the A.I. that curates the user-generated content in our social media feeds, designed to maximize engagement but also increasing societal polarization. (“U.S. citizens can no longer agree on who won elections,” they note.)

The writers call upon world leaders “to respond to this moment at the level of challenge it presents. The first step is to buy time to upgrade our 19th-century institutions for a post-A.I. world, and to learn to master A.I. before it masters us.”

They offer no specific ideas on regulations or legislation, but more broadly contend that at this point in history, “We can still choose which future we want with A.I. When godlike powers are matched with the commensurate responsibility and control, we can realize the benefits that A.I. promises.”

財富中文網所刊載內容之知識產權為財富媒體知識產權有限公司及/或相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、復制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
嫩草嫩草嫩草久久水拉丝了| 亚洲精品美女久久久久久久| 日韩欧美国产手机在线观看| 在线不卡av片免费观看| 亚洲6080yy久久无码中文| 国产又粗又猛又黄又爽无遮挡| 天天狠天天透天天伊人| 中文字幕精品久久久久久亚洲综合网| 亚洲精品欧美精品日韩精品| 69天堂人成无码免费视频网站| 黑人狂桶女人高潮嗷嗷叫小说| 欢迎访问欧美成人精品第一区二区三区| 欧美成人精品色午夜免费观看| 国产一二三区在线播放| 亚洲欧洲自拍拍偷午夜色| 免费 无码 国产在线观看九| 亚洲精品国产字幕久久vr| 欧美激情精品久久久久久| 92精品国产自产在线观看481页| 日韩人妻无码肉v视频| 无码内射中文字幕岛国片| 国产福利一区二区三区高清| 狠狠躁天天躁夜夜躁婷婷| 内地欧美日韩亚洲美女激情爽爽| 国产欧美国产精品第一区| 国产精品综合在线观看| 亚洲欧美日韩中文在线制服日本免费一区香蕉视频| 国产人碰人摸人爱免费视频| 亚洲国产欧美日韩精品一区二区三区| 久久一区二区三区精品毛片| 国产成人AⅤ片在线观看免费| 伊伊人成亚洲综合人网香| 中文综合无码一区二区三区| 亚洲一区二区在线电影天堂| 成人 污污污在线观看| 久青草无码视频在线播放| 绝色教师美妇沉沦为玩物| 国产亚洲精品无码拍拍拍| 国产尤物在线观看不卡| 国产91流白浆喷水免费观看| 少妇激情无码av一区二区|