成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁 500強 活動 榜單 商業(yè) 科技 領(lǐng)導(dǎo)力 專題 品牌中心
雜志訂閱

AI有時會“一本正經(jīng)地胡說八道”,谷歌CEO也不完全明白原因

WILL DANIEL
2023-04-21

聊天機器人有時會胡編亂造,這個嚴(yán)重問題至今尚未解決。

文本設(shè)置
小號
默認
大號
Plus(0條)

谷歌母公司Alphabet的CEO桑德爾·皮查伊。圖片來源:MATEUSZ WLODARCZYK—NURPHOTO/GETTY IMAGES

最近各大科技巨頭都在人工智能聊天機器人上發(fā)力,谷歌也不例外。它最新推出的Bard聊天機器人可以迅速生成任何東西——從關(guān)于莎翁文學(xué)的論文,到說唱歌詞。但是以Bard為代表的這些聊天機器人還有一個嚴(yán)重的問題尚未解決。那就是它們有時會胡編亂造。

比如說,在CBS電視臺上周日的《60分鐘》節(jié)目上,Bard在談到通脹問題時,曾自信滿滿地宣稱,彼得·特明的《通脹戰(zhàn)爭:一部現(xiàn)代史》一書“講述了美國的通脹史”,這本書還探討了美國的通脹政策。問題是這本書根本就不存在。

問題是,Bard撒的這個謊具有很強的迷惑性。彼得·特明是麻省理工學(xué)院的一位知名經(jīng)濟學(xué)家,他研究的領(lǐng)域就是通貨膨脹,而且寫過十幾本經(jīng)濟學(xué)方面的書,只不過沒有任何一本叫這個名字。Bard在回答通脹問題時,不光“幻想”出了這本書,甚至還“幻想”出了一系列其他經(jīng)濟學(xué)書籍的名稱和摘要。

Bard是谷歌推出的一款對標(biāo)ChatGPT的聊天機器人,它是今年三月份才剛剛發(fā)布的,但它已經(jīng)不只一次在公開場合鬧笑話了。此前它曾在一次公開演示中聲稱,詹姆斯韋伯太空望遠鏡曾在2015年首次捕捉到一顆系外行星的照片,但是實際上,Bard所說的這顆行星是位于智利的“甚大望遠鏡”于2014年發(fā)現(xiàn)的。

像Bard和ChatGPT這樣的聊天機器人都使用了大型語言模型(又稱LLMs)來對數(shù)十億個數(shù)據(jù)點進行分析,來預(yù)測語義中的下一個單詞。這種方法又叫所謂的“生成式人工智能”。它有時會給產(chǎn)生一種言之鑿鑿的錯覺,讓人覺得它給出的答案是可信的,但事實并非如此。那么AI機器人的這種“一本正經(jīng)地胡說八道”是否是一種普遍現(xiàn)象呢?

對此,谷歌CEO桑達爾·皮查伊上周日在接受《60分鐘》采訪時承認,這個問題是“意料之中”的。“這個領(lǐng)域目前還沒有人能解決‘錯覺’的問題。所有型號的生成式AI都存在這個問題?!?/p>

當(dāng)被到這個問題未來是否會得到解決時,皮查伊表示:“在這個問題上有很多爭論。”但他認為,他的團隊最終會在這方面“取得進展”。

一些人工智能專家指出,由于人工智能系統(tǒng)的復(fù)雜性,要取得這種進展,可能是一件很困難的事。皮查伊表示,就連谷歌的工程師都“無法完全理解”人工智能技術(shù)有時為何會有那樣的反應(yīng)。

他表示:“我們這個領(lǐng)域的人把這方面的問題稱為‘黑箱’。你也不知道它為什么會這樣說,或者為什么會出錯?!?/p>

皮查伊說,谷歌工程師們對AI聊天機器人的工作模式“已經(jīng)有了一些概念”,他們對生成式AI的理解水平正在提高?!安贿^目前的技術(shù)水平就是這樣。”不過對于一些批評人士來說,皮查伊這個解釋顯然不能讓他們滿意。不少批評人士警告說,復(fù)雜的人工智能系統(tǒng)很可能會引發(fā)意想不到的后果。

比如,微軟創(chuàng)始人比爾·蓋茨今年3月表示,人工智能技術(shù)的發(fā)展很可能會加劇全球的貧富差距。他在一篇博客文章中寫道:“市場力量不可能自然而然地產(chǎn)生自動幫助窮人的AI產(chǎn)品和服務(wù),更有可能發(fā)生的是相反的情況。”

最近幾個月,伊隆·馬斯克也反復(fù)在公開場合提到人工智能可能造成的風(fēng)險。他表示,這項技術(shù)對經(jīng)濟的沖擊將不亞于“小行星撞擊地球”。上個月,馬斯克甚至聯(lián)名1100多位科技企業(yè)CEO、技術(shù)專家和AI研究人員,呼吁全球暫停開發(fā)人工智能工具6個月——當(dāng)然很多人不知道的是,他同時正忙著創(chuàng)辦自己的人工智能公司。

斯坦福大學(xué)人本AI研究中心曾對人工智能行業(yè)的從業(yè)者進行過一項年度調(diào)查,調(diào)查結(jié)果顯示,很多AI從業(yè)者認為,人工智能技術(shù)的發(fā)展,使得“深度造假”變得越來越容易,這很可能會加劇虛假信息的泛濫,甚至有可能危害環(huán)境。該研究中心上周表示,AI帶來的威脅甚至有可能達到“核級別的災(zāi)難”。

上周日,谷歌CEO皮查伊也在參加節(jié)目時透露,即便是在谷歌內(nèi)部,也有一些研究人員擔(dān)心,人工智能一旦應(yīng)用不當(dāng),“可能會產(chǎn)生非常有害的影響”。他還表示:“我們尚未找到所有問題的答案,而且這項技術(shù)的發(fā)展是很快的。如果你問我,這個問題有沒有可能讓我睡不著覺,答案是當(dāng)然肯定的?!?/p>

皮查伊還表示,為了確保人工智能造福所有人,AI系統(tǒng)的開發(fā)工作“不僅應(yīng)該包括工程師,還應(yīng)該包括社會科學(xué)家、倫理學(xué)家、哲學(xué)家等等”。

“我認為,這些問題是社會在發(fā)展過程中需要解決的問題,而不應(yīng)該由一個公司來決定?!彼f。(財富中文網(wǎng))

譯者:樸成奎

最近各大科技巨頭都在人工智能聊天機器人上發(fā)力,谷歌也不例外。它最新推出的Bard聊天機器人可以迅速生成任何東西——從關(guān)于莎翁文學(xué)的論文,到說唱歌詞。但是以Bard為代表的這些聊天機器人還有一個嚴(yán)重的問題尚未解決。那就是它們有時會胡編亂造。

比如說,在CBS電視臺上周日的《60分鐘》節(jié)目上,Bard在談到通脹問題時,曾自信滿滿地宣稱,彼得·特明的《通脹戰(zhàn)爭:一部現(xiàn)代史》一書“講述了美國的通脹史”,這本書還探討了美國的通脹政策。問題是這本書根本就不存在。

問題是,Bard撒的這個謊具有很強的迷惑性。彼得·特明是麻省理工學(xué)院的一位知名經(jīng)濟學(xué)家,他研究的領(lǐng)域就是通貨膨脹,而且寫過十幾本經(jīng)濟學(xué)方面的書,只不過沒有任何一本叫這個名字。Bard在回答通脹問題時,不光“幻想”出了這本書,甚至還“幻想”出了一系列其他經(jīng)濟學(xué)書籍的名稱和摘要。

Bard是谷歌推出的一款對標(biāo)ChatGPT的聊天機器人,它是今年三月份才剛剛發(fā)布的,但它已經(jīng)不只一次在公開場合鬧笑話了。此前它曾在一次公開演示中聲稱,詹姆斯韋伯太空望遠鏡曾在2015年首次捕捉到一顆系外行星的照片,但是實際上,Bard所說的這顆行星是位于智利的“甚大望遠鏡”于2014年發(fā)現(xiàn)的。

像Bard和ChatGPT這樣的聊天機器人都使用了大型語言模型(又稱LLMs)來對數(shù)十億個數(shù)據(jù)點進行分析,來預(yù)測語義中的下一個單詞。這種方法又叫所謂的“生成式人工智能”。它有時會給產(chǎn)生一種言之鑿鑿的錯覺,讓人覺得它給出的答案是可信的,但事實并非如此。那么AI機器人的這種“一本正經(jīng)地胡說八道”是否是一種普遍現(xiàn)象呢?

對此,谷歌CEO桑達爾·皮查伊上周日在接受《60分鐘》采訪時承認,這個問題是“意料之中”的?!斑@個領(lǐng)域目前還沒有人能解決‘錯覺’的問題。所有型號的生成式AI都存在這個問題。”

當(dāng)被到這個問題未來是否會得到解決時,皮查伊表示:“在這個問題上有很多爭論?!钡J為,他的團隊最終會在這方面“取得進展”。

一些人工智能專家指出,由于人工智能系統(tǒng)的復(fù)雜性,要取得這種進展,可能是一件很困難的事。皮查伊表示,就連谷歌的工程師都“無法完全理解”人工智能技術(shù)有時為何會有那樣的反應(yīng)。

他表示:“我們這個領(lǐng)域的人把這方面的問題稱為‘黑箱’。你也不知道它為什么會這樣說,或者為什么會出錯?!?/p>

皮查伊說,谷歌工程師們對AI聊天機器人的工作模式“已經(jīng)有了一些概念”,他們對生成式AI的理解水平正在提高?!安贿^目前的技術(shù)水平就是這樣?!辈贿^對于一些批評人士來說,皮查伊這個解釋顯然不能讓他們滿意。不少批評人士警告說,復(fù)雜的人工智能系統(tǒng)很可能會引發(fā)意想不到的后果。

比如,微軟創(chuàng)始人比爾·蓋茨今年3月表示,人工智能技術(shù)的發(fā)展很可能會加劇全球的貧富差距。他在一篇博客文章中寫道:“市場力量不可能自然而然地產(chǎn)生自動幫助窮人的AI產(chǎn)品和服務(wù),更有可能發(fā)生的是相反的情況。”

最近幾個月,伊隆·馬斯克也反復(fù)在公開場合提到人工智能可能造成的風(fēng)險。他表示,這項技術(shù)對經(jīng)濟的沖擊將不亞于“小行星撞擊地球”。上個月,馬斯克甚至聯(lián)名1100多位科技企業(yè)CEO、技術(shù)專家和AI研究人員,呼吁全球暫停開發(fā)人工智能工具6個月——當(dāng)然很多人不知道的是,他同時正忙著創(chuàng)辦自己的人工智能公司。

斯坦福大學(xué)人本AI研究中心曾對人工智能行業(yè)的從業(yè)者進行過一項年度調(diào)查,調(diào)查結(jié)果顯示,很多AI從業(yè)者認為,人工智能技術(shù)的發(fā)展,使得“深度造假”變得越來越容易,這很可能會加劇虛假信息的泛濫,甚至有可能危害環(huán)境。該研究中心上周表示,AI帶來的威脅甚至有可能達到“核級別的災(zāi)難”。

上周日,谷歌CEO皮查伊也在參加節(jié)目時透露,即便是在谷歌內(nèi)部,也有一些研究人員擔(dān)心,人工智能一旦應(yīng)用不當(dāng),“可能會產(chǎn)生非常有害的影響”。他還表示:“我們尚未找到所有問題的答案,而且這項技術(shù)的發(fā)展是很快的。如果你問我,這個問題有沒有可能讓我睡不著覺,答案是當(dāng)然肯定的。”

皮查伊還表示,為了確保人工智能造福所有人,AI系統(tǒng)的開發(fā)工作“不僅應(yīng)該包括工程師,還應(yīng)該包括社會科學(xué)家、倫理學(xué)家、哲學(xué)家等等”。

“我認為,這些問題是社會在發(fā)展過程中需要解決的問題,而不應(yīng)該由一個公司來決定?!彼f。(財富中文網(wǎng))

譯者:樸成奎

Google’s new chatbot, Bard, is part of a revolutionary wave of artificial intelligence (A.I.) being developed that can rapidly generate anything from an essay on William Shakespeare to rap lyrics in the style of DMX. But Bard and all of its chatbot peers still have at least one serious problem—they sometimes make stuff up.

The latest evidence of this unwelcome tendency was displayed during CBS’ 60 Minutes on Sunday. The Inflation Wars: A Modern History by Peter Temin “provides a history of inflation in the United States” and discusses the policies that have been used to control it, Bard confidently declared during the report. The problem is the book doesn’t exist.

It’s an interesting lie by Bard—because it could be true. Temin is an accomplished MIT economist who studies inflation and has written over a dozen books on economics, he just never wrote one called The Inflation Wars: A Modern History. Bard “hallucinated” that, as well as names and summaries for a whole list of other economics books in response to a question about inflation.

It’s not the first public error the chatbot has made. When Bard was released in March to counter OpenAI’s rival ChatGPT, it claimed in a public demonstration that the James Webb Space Telescope was the first to capture an image of an exoplanet in 2005, but the aptly named Very Large Telescope had actually accomplished the task a year earlier in Chile.

Chatbots like Bard and ChatGPT use large language models, or LLMs, that leverage billions of data points to predict the next word in a string of text. This method of so-called generative A.I. tends to produce hallucinations in which the models generate text that appears plausible, yet isn’t factual. But with all the work being done on LLMs, are these types of hallucinations still common?

“Yes,” Google CEO Sundar Pichai admitted in his 60 Minutes interview Sunday, saying they’re “expected.” “No one in the field has yet solved the hallucination problems. All models do have this as an issue.”

When asked if the hallucination problem will be solved in the future, Pichai noted “it’s a matter of intense debate,” but said he thinks his team will eventually “make progress.”

That progress may be difficult to come by, as some A.I. experts have noted, due to the complex nature of A.I. systems. Pichai explained that there are still parts of A.I. technology that his engineers “don’t fully understand.”

“There is an aspect of this which we call—all of us in the field—call it a ‘black box,’” he said. “And you can’t quite tell why it said this, or why it got it wrong.”

Pichai said his engineers “have some ideas” about how their chatbot works, and their ability to understand the model is improving. “But that’s where the state of the art is,” he noted. That answer may not be good enough for some critics who warn about potential unintended consequences of complex A.I. systems, however.

Microsoft cofounder Bill Gates, for example, argued in March that the development of A.I. tech could exacerbate wealth inequality globally. “Market forces won’t naturally produce AI products and services that help the poorest,” the billionaire wrote in a blog post. “The opposite is more likely.”

And Elon Musk has been sounding the alarm about the dangers of A.I. for months now, arguing the technology will hit the economy “l(fā)ike an asteroid.” The Tesla and Twitter CEO was part of a group of more than 1,100 CEOs, technologists, and A.I. researchers who called for a six-month pause on developing A.I. tools last month—even though he was busy creating his own rival A.I. startup behind the scenes.

A.I. systems could also exacerbate the flood of misinformation through the creation of deep fakes—hoax images of events or people created by A.I.—and even harm the environment, according to researchers surveyed in an annual report on the technology by Stanford University’s Institute for Human-Centered A.I., who warned the threat amounts to a potential “nuclear-level catastrophe” last week.

On Sunday, Google’s Pichai revealed he shares some of the researchers’ concerns, arguing A.I. “can be very harmful” if deployed improperly. “We don’t have all the answers there yet—and the technology is moving fast. So does that keep me up at night? Absolutely,” he said.

Pichai added that the development of A.I. systems should include “not just engineers, but social scientists, ethicists, philosophers, and so on” to ensure the outcome benefits everyone.

“I think these are all things society needs to figure out as we move along. It’s not for a company to decide,” he said.

財富中文網(wǎng)所刊載內(nèi)容之知識產(chǎn)權(quán)為財富媒體知識產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專屬所有或持有。未經(jīng)許可,禁止進行轉(zhuǎn)載、摘編、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
青椒午夜影院在线日本视频| 少妇人妻无码精品视频app| 77色午夜成人影院综合网| 亚洲av日韩av高潮潮喷无码| 久久99亚洲含羞草影院| 国产精品高清一区二区三区| 精品国内自产拍在线观看| 亚洲中文字幕AⅤ无码性色| 中文字幕被公侵犯的漂亮人妻| 欧洲肉欲K8播放毛片| 一级特黄高清aaaa大片| 97人伦影院A级毛片| 最新成年女人毛片免费基地| AV在线亚洲男人的天堂| 产成a人亚洲精v品无码| 曰韩欧美亚洲美日更新在线| 婷婷国产天堂久久综合亚洲| 99久久国产综合精品五月天喷水| 一个人免费观看A级大片| 精品日韩视频一区二区三区在线| 女性自慰喷水www久久久| 日本丰满妇人成熟免费中文字幕| 亚洲国产成人精品区综合| 无码高潮喷水在线播放观看| 欧美成人影院在线观看| 人妻内射一区二区在线视频| 国内老熟妇乱子伦视频| 中文字字幕在线综合亚洲| 成本人片无码中文字幕免费| 免费三级网站国产性自爱拍偷| 伊人久久大香线蕉综合影视| 又色又爽又黄的视频日本| 亚洲午夜高清国产拍| 亚洲欧洲精品一区二区| 十国产十欧美十岛国在线观看| 极品美女国产精品免费一区| 久久精品视频免费播放| 国产成人无码Av在线播放无广告| 中文字幕一级片无码高清| 亚洲AV在线无码播放毛片一线天| 亚洲AV无码AV日韩AV电影|