成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁(yè) 500強(qiáng) 活動(dòng) 榜單 商業(yè) 科技 領(lǐng)導(dǎo)力 專題 品牌中心
雜志訂閱

谷歌前CEO:當(dāng)AI開(kāi)始自我提升時(shí),“我們就要認(rèn)真考慮關(guān)掉它”

PAOLO CONFINO
2024-12-21

AI可能給人類帶來(lái)全新的、更嚴(yán)重的威脅

文本設(shè)置
小號(hào)
默認(rèn)
大號(hào)
Plus(0條)

谷歌前董事長(zhǎng)兼首席執(zhí)行官埃里克·施密特。CHRISTOPHE MORIN—IP3/GETTY IMAGES

? 硅谷前輩埃里克·施密特表示,當(dāng)AI系統(tǒng)開(kāi)始自我提升時(shí),必須有人做好準(zhǔn)備可以將其關(guān)閉,這樣才能保證它們的安全性。

前谷歌(Google)首席執(zhí)行官埃里克·施密特警告稱,AI系統(tǒng)可能需要有一個(gè)緊急關(guān)機(jī)裝置,以免它們變得過(guò)于強(qiáng)大。施密特認(rèn)為,隨著AI系統(tǒng)的自動(dòng)化程度越來(lái)越高,它們可能給人類帶來(lái)全新的、更嚴(yán)重的威脅。

施密特周日在接受ABC News采訪時(shí)表示:“最終你會(huì)對(duì)電腦說(shuō):‘學(xué)習(xí)所有知識(shí),完成一切任務(wù)’。這是一個(gè)危險(xiǎn)的臨界點(diǎn)。當(dāng)AI系統(tǒng)可以自我提升時(shí),我們就需要認(rèn)真考慮關(guān)掉它?!?/p>

施密特預(yù)測(cè),AI將從任務(wù)型助理,如微軟(Microsoft)的Copilot,進(jìn)化成可以自主決策的更加復(fù)雜的系統(tǒng)。施密特認(rèn)為,當(dāng)AI達(dá)到這個(gè)階段時(shí),人類就應(yīng)該介入,并考慮關(guān)閉系統(tǒng)。人類需要確保在需要關(guān)閉AI系統(tǒng)時(shí),不會(huì)遭到它的抵抗。

施密特說(shuō)道:“理論上,最好有人可以隨時(shí)將其關(guān)閉?!?/p>

施密特在硅谷工作了數(shù)十年。2001年,谷歌創(chuàng)始人謝爾蓋·布林和拉里·佩奇將他招入麾下,幫助拓展他們的業(yè)務(wù)規(guī)模。當(dāng)時(shí),布林和佩奇認(rèn)為他們需要一位具有高管經(jīng)驗(yàn)的穩(wěn)重人物來(lái)管理公司,而他們自己則專注于技術(shù)研發(fā)。在他的職業(yè)生涯中,施密特見(jiàn)證了科技行業(yè)的多次創(chuàng)新浪潮。施密特對(duì)最壞情況的擔(dān)憂,也得到了其他AI領(lǐng)域知名人士的認(rèn)同。

諾貝爾獎(jiǎng)得主杰弗里·辛頓在2023年表示,他“看不到一條保證安全的路徑”,因?yàn)槿斯ぶ悄芸梢宰孕兴伎?。辛頓憑借他的發(fā)現(xiàn)被譽(yù)為“AI教父”。OpenAI首席執(zhí)行官薩姆·奧爾特曼表示,通用人工智能最糟糕的情況是“人類徹底滅亡”。OpenAI的聯(lián)合創(chuàng)始人、現(xiàn)已成為競(jìng)爭(zhēng)對(duì)手的埃隆·馬斯克警告說(shuō),人工智能可能對(duì)人類文明造成毀滅性影響。

馬斯克在10月份表示,人工智能“很可能會(huì)很棒,但也有10%到20%的可能性會(huì)變得很可怕,這并非毫無(wú)可能?!?/p>

施密特也強(qiáng)調(diào)了AI積極的方面。

施密特對(duì)ABC的喬治·斯特凡諾普洛斯表示:“重要的是,人工智能的力量意味著每個(gè)人都會(huì)隨身攜帶一個(gè)相當(dāng)于‘全才’的助手。除了你的筆記和撰稿人,還會(huì)有愛(ài)因斯坦和達(dá)芬奇來(lái)為你的節(jié)目提供建議。這對(duì)地球上的每個(gè)人來(lái)說(shuō)都是如此。”

為了確保人類在不遭受重大損害的情況下獲得這些好處,施密特認(rèn)為政府必須開(kāi)始對(duì)AI進(jìn)行監(jiān)管。施密特提到他與已故的亨利·基辛格曾討論過(guò)這個(gè)話題,并與他合著了《創(chuàng)世紀(jì):人工智能、希望與人類精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一書(shū)。

施密特表示:“政府應(yīng)該發(fā)揮作用?;粮癫┦糠浅?qiáng)烈地認(rèn)為,人工智能的未來(lái)不應(yīng)該由像我這樣的人來(lái)決定,也不應(yīng)該只由技術(shù)人員來(lái)決定?!?/p>

到目前為止,美國(guó)尚未在聯(lián)邦層面實(shí)施任何AI監(jiān)管。然而,加利福尼亞州提出了一系列保護(hù)電影行業(yè)的AI法案,并打擊了使用該技術(shù)制作的深度偽造視頻。但加州州長(zhǎng)加文·紐瑟姆否決了一項(xiàng)名為SB 1047的綜合性法案,該法案因?qū)﹂_(kāi)發(fā)人員的嚴(yán)格報(bào)告要求而遭到風(fēng)險(xiǎn)投資者和科技公司高管的強(qiáng)烈反對(duì)。(財(cái)富中文網(wǎng))

譯者:劉進(jìn)龍

審校:汪皓

谷歌前董事長(zhǎng)兼首席執(zhí)行官埃里克·施密特。CHRISTOPHE MORIN—IP3/GETTY IMAGES

? 硅谷前輩埃里克·施密特表示,當(dāng)AI系統(tǒng)開(kāi)始自我提升時(shí),必須有人做好準(zhǔn)備可以將其關(guān)閉,這樣才能保證它們的安全性。

前谷歌(Google)首席執(zhí)行官埃里克·施密特警告稱,AI系統(tǒng)可能需要有一個(gè)緊急關(guān)機(jī)裝置,以免它們變得過(guò)于強(qiáng)大。施密特認(rèn)為,隨著AI系統(tǒng)的自動(dòng)化程度越來(lái)越高,它們可能給人類帶來(lái)全新的、更嚴(yán)重的威脅。

施密特周日在接受ABC News采訪時(shí)表示:“最終你會(huì)對(duì)電腦說(shuō):‘學(xué)習(xí)所有知識(shí),完成一切任務(wù)’。這是一個(gè)危險(xiǎn)的臨界點(diǎn)。當(dāng)AI系統(tǒng)可以自我提升時(shí),我們就需要認(rèn)真考慮關(guān)掉它?!?/p>

施密特預(yù)測(cè),AI將從任務(wù)型助理,如微軟(Microsoft)的Copilot,進(jìn)化成可以自主決策的更加復(fù)雜的系統(tǒng)。施密特認(rèn)為,當(dāng)AI達(dá)到這個(gè)階段時(shí),人類就應(yīng)該介入,并考慮關(guān)閉系統(tǒng)。人類需要確保在需要關(guān)閉AI系統(tǒng)時(shí),不會(huì)遭到它的抵抗。

施密特說(shuō)道:“理論上,最好有人可以隨時(shí)將其關(guān)閉?!?/p>

施密特在硅谷工作了數(shù)十年。2001年,谷歌創(chuàng)始人謝爾蓋·布林和拉里·佩奇將他招入麾下,幫助拓展他們的業(yè)務(wù)規(guī)模。當(dāng)時(shí),布林和佩奇認(rèn)為他們需要一位具有高管經(jīng)驗(yàn)的穩(wěn)重人物來(lái)管理公司,而他們自己則專注于技術(shù)研發(fā)。在他的職業(yè)生涯中,施密特見(jiàn)證了科技行業(yè)的多次創(chuàng)新浪潮。施密特對(duì)最壞情況的擔(dān)憂,也得到了其他AI領(lǐng)域知名人士的認(rèn)同。

諾貝爾獎(jiǎng)得主杰弗里·辛頓在2023年表示,他“看不到一條保證安全的路徑”,因?yàn)槿斯ぶ悄芸梢宰孕兴伎肌P令D憑借他的發(fā)現(xiàn)被譽(yù)為“AI教父”。OpenAI首席執(zhí)行官薩姆·奧爾特曼表示,通用人工智能最糟糕的情況是“人類徹底滅亡”。OpenAI的聯(lián)合創(chuàng)始人、現(xiàn)已成為競(jìng)爭(zhēng)對(duì)手的埃隆·馬斯克警告說(shuō),人工智能可能對(duì)人類文明造成毀滅性影響。

馬斯克在10月份表示,人工智能“很可能會(huì)很棒,但也有10%到20%的可能性會(huì)變得很可怕,這并非毫無(wú)可能。”

施密特也強(qiáng)調(diào)了AI積極的方面。

施密特對(duì)ABC的喬治·斯特凡諾普洛斯表示:“重要的是,人工智能的力量意味著每個(gè)人都會(huì)隨身攜帶一個(gè)相當(dāng)于‘全才’的助手。除了你的筆記和撰稿人,還會(huì)有愛(ài)因斯坦和達(dá)芬奇來(lái)為你的節(jié)目提供建議。這對(duì)地球上的每個(gè)人來(lái)說(shuō)都是如此。”

為了確保人類在不遭受重大損害的情況下獲得這些好處,施密特認(rèn)為政府必須開(kāi)始對(duì)AI進(jìn)行監(jiān)管。施密特提到他與已故的亨利·基辛格曾討論過(guò)這個(gè)話題,并與他合著了《創(chuàng)世紀(jì):人工智能、希望與人類精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一書(shū)。

施密特表示:“政府應(yīng)該發(fā)揮作用?;粮癫┦糠浅?qiáng)烈地認(rèn)為,人工智能的未來(lái)不應(yīng)該由像我這樣的人來(lái)決定,也不應(yīng)該只由技術(shù)人員來(lái)決定?!?/p>

到目前為止,美國(guó)尚未在聯(lián)邦層面實(shí)施任何AI監(jiān)管。然而,加利福尼亞州提出了一系列保護(hù)電影行業(yè)的AI法案,并打擊了使用該技術(shù)制作的深度偽造視頻。但加州州長(zhǎng)加文·紐瑟姆否決了一項(xiàng)名為SB 1047的綜合性法案,該法案因?qū)﹂_(kāi)發(fā)人員的嚴(yán)格報(bào)告要求而遭到風(fēng)險(xiǎn)投資者和科技公司高管的強(qiáng)烈反對(duì)。(財(cái)富中文網(wǎng))

譯者:劉進(jìn)龍

審校:汪皓

? Once AI systems start to self-improve their capabilities, ensuring they remain safe will require someone who is ready and able to shut them down, according to Silicon Valley veteran Eric Schmidt.

Former Google CEO Eric Schmidt cautioned that AI systems might need a kill switch if they get too powerful. As the systems become increasingly autonomous, they could present new and graver threats to humanity, according to Schmidt.

“Eventually you say to the computer, ‘Learn everything and do everything,’” Schmidt said Sunday in an interview with ABC News. “And that’s a dangerous point. When the system can self-improve, we need to seriously think about unplugging it.”

Schmidt predicted that AI will advance from the sort of task-specific agents like Microsoft Copilot, to more complex systems that can make decisions on their own. When AI reaches that stage, it will be time for humans to step in and consider turning off the system, said Schmidt. Humans need to ensure that the AI itself can’t counteract efforts to shut it down.

“In theory, we better have somebody with the hand on the plug, metaphorically,” Schmidt said.

Schmidt worked in Silicon Valley for decades. In 2001, Google founders Sergey Brin and Larry Page brought him in to help scale their business. At the time, Brin and Page felt they needed a steady hand with high-profile executive experience to shepherd their company, while they dedicated themselves to research and development. Over his career, Schmidt had a front-row seat to the tech industry’s many waves of innovation. Schmidt’s fears about this worst-case scenario are shared by other AI luminaries.

Nobel laureate Geoffrey Hinton, whose discoveries earned him the moniker “the Godfather of AI,” said in 2023 he “couldn’t see a path that guaranteed safety” because AI could think for itself. OpenAI CEO Sam Altman said the worst-case scenario of artificial general intelligence is “l(fā)ights out for all of us.” Elon Musk, an OpenAI cofounder turned rival, warned AI could lead to the destruction of civilization.

AI is “most likely going to be great,” Musk said in October. “There’s this sub chance, that could be 10% to 20%, that it goes bad. The chances aren’t zero that it goes bad.”

Schmidt, too, highlighted the positives of AI.

“The important thing is that the power of this intelligence means that each and every person is going to have the equivalent of a polymath in their pocket,” Schmidt told ABC’s George Stephanopoulos. “In addition to your notes and writers, you’re going to have an Einstein and a Leonardo da Vinci to give you advice on your show. That will be true for everyone on the planet.”

To ensure mankind reaps those benefits without incurring significant damages, Schmidt believes governments will have to start regulating AI. Schmidt referenced conversations on the topic he’d had with the late Henry Kissinger, with whom he cowrote Genesis: Artificial Intelligence, Hope, and the Human Spirit.

“Government has a role,” Schmidt said. “Dr. Kissinger felt very strongly that the future of intelligence should not be left to people like me. The technologists should not be the only ones making these decisions.”

So far, the U.S. has not implemented any AI regulation at the federal level. However, California put forth a series of AI bills to protect the film industry and cracked down on deepfakes made using the technology. But California Gov. Gavin Newsom vetoed a comprehensive bill known as SB 1047 that venture capital and tech executives heavily opposed owing to the stringent reporting requirements it would have imposed on developers.

財(cái)富中文網(wǎng)所刊載內(nèi)容之知識(shí)產(chǎn)權(quán)為財(cái)富媒體知識(shí)產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專屬所有或持有。未經(jīng)許可,禁止進(jìn)行轉(zhuǎn)載、摘編、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評(píng)論
評(píng)論

撰寫(xiě)或查看更多評(píng)論

請(qǐng)打開(kāi)財(cái)富Plus APP

前往打開(kāi)
熱讀文章
最近中文字幕在线的mv视频| 国产乱子伦精品无码专区| aⅴ天堂av电影亚洲av| 97人人添人澡人人爽超碰| 国产精品人成电影在线观看| 国产无遮挡又爽又黄大胸免费| 中文字幕久久综合久久88| 中文字幕人成乱无码| 色综合无码精品久久一区二区三区| 无码人妻熟妇AV又粗又大| 一级特黄AA大片欧美视频| 国产精品色视频ⅩXXX| 日韩中文在线欧美日韩一区二区| 国产真人无遮挡作爱免费视频| 亚洲曰朝精品无码专区 | 最近免费中文mv在线字幕| 国产精品中文久久久久久久| 久久久久人妻精品一区三寸| 天天爽天天狠久久久综合麻豆| 超薄丝袜足j一区二区三区| 97PORM国内自拍视频| 精品国产亚洲AV麻豆| 久久精品久久久久观看99水蜜桃| 国产午夜精品二区三区| 7777精品伊人久久久大香线蕉| 欧美性XXXX禁忌| 中国女人内谢69XXXX免费视频| 日本工口里番无遮█彩色| 亚洲色偷偷偷综合网另类小说| 欧美成人午夜一区二区三区| 久久人妻无码精品一区二区三区| 7777精品伊人久久久大香线蕉| 中文字幕在线视频精品| 久久亚洲精品无码AV红樱桃| 国产69囗曝吞精在线视频| 国产精品久久久久久久| 成人爽a毛片一区二区免费| 国产午夜成人免费看片无遮挡| 91校花国产大学生| 亚洲精品WWW久久久久久| 国产性色欧美亚洲黄片|