成人小说亚洲一区二区三区,亚洲国产精品一区二区三区,国产精品成人精品久久久,久久综合一区二区三区,精品无码av一区二区,国产一级a毛一级a看免费视频,欧洲uv免费在线区一二区,亚洲国产欧美中日韩成人综合视频,国产熟女一区二区三区五月婷小说,亚洲一区波多野结衣在线

首頁 500強 活動 榜單 商業(yè) 科技 領(lǐng)導(dǎo)力 專題 品牌中心
雜志訂閱

公司如何贏得人工智能懷疑論者的支持?

Alyssa Newcomb
2024-03-14

在人工智能淘金熱中,公司對用戶負(fù)有責(zé)任。

文本設(shè)置
小號
默認(rèn)
大號
Plus(0條)

圖片來源:GETTY IMAGES

在很短的時間內(nèi),人工智能就從只有科技精英使用的技術(shù),變成了每天有最多人使用或者至少會遇到的技術(shù)。人工智能正在被廣泛應(yīng)用于醫(yī)療應(yīng)用程序、客戶服務(wù)互動、社交媒體、營銷郵件等諸多領(lǐng)域。公司紛紛開發(fā)自己的人工智能,并思考如何把該技術(shù)整合到業(yè)務(wù)當(dāng)中,與此同時,他們還要面對一個挑戰(zhàn):如何以透明的方式說明他們使用這些先進技術(shù)的方式。

紐約大學(xué)(New York University)的負(fù)責(zé)任人工智能中心(Center for Responsible AI)的教授兼主任茱莉亞·斯托亞諾維奇說:“許多人通常在沒有明確決定使用人工智能系統(tǒng)的時候,就已經(jīng)受到了人工智能的影響。我們希望讓人們有決定權(quán),有能力幫助找出漏洞,了解人工智能帶來的好處,并關(guān)注它可能帶來的風(fēng)險與傷害?!?/p>

畢馬威(KPMG)今年發(fā)布的一項調(diào)查顯示,42%的人認(rèn)為生成式人工智能已經(jīng)對個人生活產(chǎn)生了“重大影響”,而60%的人預(yù)計這將在未來兩年內(nèi)發(fā)生。皮尤研究中心(Pew Research Center)2023年的一項研究稱,盡管人工智能產(chǎn)生了巨大影響,但只有10%的美國人表示對人工智能的態(tài)度是“激動多于擔(dān)憂”。全球的政策制定者們都在研究人工智能的潛在監(jiān)管法規(guī),與此同時,一些公司則在主動公布其為負(fù)責(zé)任創(chuàng)新所采取的措施。

財捷集團(Intuit)把人工智能整合到公司的全產(chǎn)品線,包括在TurboTax、QuickBooks、Credit Karma中整合的生成式人工智能助手,以及公司電子郵箱營銷平臺Mailchimp上的一系列工具。該公司表示,數(shù)百萬個模型每天驅(qū)動650億次機器學(xué)習(xí)預(yù)測,每年進行8.1億次人工智能驅(qū)動的交互。

Intuit Mailchimp的首席執(zhí)行官拉尼亞·蘇卡爾說:“五年前,我們宣布公司的策略是將人工智能與專業(yè)知識相結(jié)合,創(chuàng)建一個人工智能驅(qū)動的專家平臺。如今,這項投資讓我們擁有了數(shù)百萬個在線的人工智能驅(qū)動模型。當(dāng)生成式人工智能出現(xiàn)時,得益于我們所做的投資,以及我們所看到的它對最終用戶的潛力,我們準(zhǔn)備大展拳腳?!?/p>

小企業(yè)有許多數(shù)據(jù)點可以驗證成功的和不成功的技術(shù),因此該公司看到了把生成式人工智能推向大眾的機會,而不是只有那些有能力自行開發(fā)人工智能模型的大公司才能夠使用。蘇卡爾指出,財捷集團開發(fā)的生成式人工智能操作系統(tǒng),可以保護其訓(xùn)練數(shù)據(jù)的私密性。然后,Intuit Mailchimp的客戶能夠利用人工智能,以品牌的語氣生成營銷郵件和文本,他們還可以設(shè)置自動郵件,以幫助歡迎新客戶或提醒客戶他們的在線購物車?yán)镉形唇Y(jié)算的商品。

蘇卡爾表示,過去幾個月,Intuit Mailchimp的生成式人工智能文本生成工具使用率提高了70%以上。盡管如此,該公司在考慮如何在擴大產(chǎn)品規(guī)模時保持謹(jǐn)慎。

人工智能模型存在的一個固有問題是,它們并不完美。人工智能可能提供虛假信息,生成冒犯性的信息,并且擴大在模型訓(xùn)練數(shù)據(jù)中可能存在的偏差。蘇卡爾稱,為了避免這些情況,Intuit Mailchimp正在謹(jǐn)慎地選擇能夠使用其生成式人工智能工具的行業(yè)。(她拒絕透露目前Intuit Mailchimp的生成式人工智能不支持哪些行業(yè)。)

但區(qū)別在于,雖然人工智能的能力正在快速增強,變得可以接管從日常瑣事到創(chuàng)意工作等各種任務(wù),但財捷集團仍然相信人類在這個世界中依舊有一席之地。人工智能生成的每一條內(nèi)容在被發(fā)送給客戶之前,都會由用戶進行審查。糟糕的或不準(zhǔn)確的回答等惡化情況,能夠上報給人類內(nèi)容審查員。蘇卡爾指出,就像人們可以在TurboTax上與人類專家溝通一樣,在市場營銷領(lǐng)域離不開人類專家。

蘇卡爾說:“人類專家仍舊能夠提供人工智能所不具備的更高層次的專業(yè)知識,并提高小企業(yè)的信心。”

其他科技公司正在采取措施幫助人們了解其人工智能如何工作,并區(qū)分真實內(nèi)容與人工智能生成的內(nèi)容。TikTok為創(chuàng)作者推出了一款工具,用于標(biāo)記人工智能生成的內(nèi)容,而且該公司在2023年還表示正在測試自動標(biāo)記這類內(nèi)容的方法。Meta宣布將在Facebook、Instagram和Threads上標(biāo)記人工智能生成的圖片。微軟(Microsoft)在一篇博客里解釋了其為生成式人工智能產(chǎn)品Copilot和Microsoft Designer執(zhí)行的安全保護措施。2023年,谷歌(Google)修改了搜索算法,把人工智能生成的高質(zhì)量內(nèi)容考慮在內(nèi)。

區(qū)分真實內(nèi)容和人工智能生成的內(nèi)容,只是人工智能問題的一部分。深度造假技術(shù)的泛濫,例如最近偽造的泰勒·斯威夫特的露骨圖片等,暴露出人工智能存在的一個根本問題。Ceartas公司使用人工智能模型打擊在線剽竊行為。該公司的聯(lián)合創(chuàng)始人及首席執(zhí)行官丹·珀塞爾稱,他已經(jīng)可以為客戶刪除越來越多的人工智能生成的圖片。他的客戶既有名人和內(nèi)容創(chuàng)作者,也有公司高管。

珀塞爾說:“我們的技術(shù)工作的方式是創(chuàng)建一個侵權(quán)模型,我們不需要訪問原始內(nèi)容,也不需要對視頻片段進行指紋識別。我們只需要知道內(nèi)容的名稱,因為人們正是通過名稱來在線查找內(nèi)容。在服務(wù)個別內(nèi)容創(chuàng)作者和企業(yè)時,我們會對技術(shù)進行小幅調(diào)整,使其更加具體到品牌或個人,然后更廣泛地應(yīng)用所獲取的信息。”

過去兩年證明,人工智能的進步只會變得越來越好。(看看OpenAI的文本生成視頻平臺Sora獲得的反應(yīng)就可見一斑。)斯托楊諾維奇指出,雖然我們可能再也無法避免使用人工智能,但我們還需要做更多的工作,集合行業(yè)參與者、學(xué)術(shù)界人士、政策制定者和用戶,就可行的人工智能治理框架達成共識。與此同時,隨著人們開始在日常生活中看到越來越多的使用人工智能的例子,她提出了這條建議:

“要對人工智能和其他技術(shù)的能力保持合理的懷疑態(tài)度,這一點很重要?!彼雇袟钪Z維奇說,“如果這聽起來難以置信,同時如果我們不知道模型所使用的數(shù)據(jù)以及模型的驗證方式,那么它可能并不像廣告里宣傳的那樣有效?!保ㄘ敻恢形木W(wǎng))

譯者:劉進龍

審校:汪皓

在很短的時間內(nèi),人工智能就從只有科技精英使用的技術(shù),變成了每天有最多人使用或者至少會遇到的技術(shù)。人工智能正在被廣泛應(yīng)用于醫(yī)療應(yīng)用程序、客戶服務(wù)互動、社交媒體、營銷郵件等諸多領(lǐng)域。公司紛紛開發(fā)自己的人工智能,并思考如何把該技術(shù)整合到業(yè)務(wù)當(dāng)中,與此同時,他們還要面對一個挑戰(zhàn):如何以透明的方式說明他們使用這些先進技術(shù)的方式。

紐約大學(xué)(New York University)的負(fù)責(zé)任人工智能中心(Center for Responsible AI)的教授兼主任茱莉亞·斯托亞諾維奇說:“許多人通常在沒有明確決定使用人工智能系統(tǒng)的時候,就已經(jīng)受到了人工智能的影響。我們希望讓人們有決定權(quán),有能力幫助找出漏洞,了解人工智能帶來的好處,并關(guān)注它可能帶來的風(fēng)險與傷害。”

畢馬威(KPMG)今年發(fā)布的一項調(diào)查顯示,42%的人認(rèn)為生成式人工智能已經(jīng)對個人生活產(chǎn)生了“重大影響”,而60%的人預(yù)計這將在未來兩年內(nèi)發(fā)生。皮尤研究中心(Pew Research Center)2023年的一項研究稱,盡管人工智能產(chǎn)生了巨大影響,但只有10%的美國人表示對人工智能的態(tài)度是“激動多于擔(dān)憂”。全球的政策制定者們都在研究人工智能的潛在監(jiān)管法規(guī),與此同時,一些公司則在主動公布其為負(fù)責(zé)任創(chuàng)新所采取的措施。

財捷集團(Intuit)把人工智能整合到公司的全產(chǎn)品線,包括在TurboTax、QuickBooks、Credit Karma中整合的生成式人工智能助手,以及公司電子郵箱營銷平臺Mailchimp上的一系列工具。該公司表示,數(shù)百萬個模型每天驅(qū)動650億次機器學(xué)習(xí)預(yù)測,每年進行8.1億次人工智能驅(qū)動的交互。

Intuit Mailchimp的首席執(zhí)行官拉尼亞·蘇卡爾說:“五年前,我們宣布公司的策略是將人工智能與專業(yè)知識相結(jié)合,創(chuàng)建一個人工智能驅(qū)動的專家平臺。如今,這項投資讓我們擁有了數(shù)百萬個在線的人工智能驅(qū)動模型。當(dāng)生成式人工智能出現(xiàn)時,得益于我們所做的投資,以及我們所看到的它對最終用戶的潛力,我們準(zhǔn)備大展拳腳?!?/p>

小企業(yè)有許多數(shù)據(jù)點可以驗證成功的和不成功的技術(shù),因此該公司看到了把生成式人工智能推向大眾的機會,而不是只有那些有能力自行開發(fā)人工智能模型的大公司才能夠使用。蘇卡爾指出,財捷集團開發(fā)的生成式人工智能操作系統(tǒng),可以保護其訓(xùn)練數(shù)據(jù)的私密性。然后,Intuit Mailchimp的客戶能夠利用人工智能,以品牌的語氣生成營銷郵件和文本,他們還可以設(shè)置自動郵件,以幫助歡迎新客戶或提醒客戶他們的在線購物車?yán)镉形唇Y(jié)算的商品。

蘇卡爾表示,過去幾個月,Intuit Mailchimp的生成式人工智能文本生成工具使用率提高了70%以上。盡管如此,該公司在考慮如何在擴大產(chǎn)品規(guī)模時保持謹(jǐn)慎。

人工智能模型存在的一個固有問題是,它們并不完美。人工智能可能提供虛假信息,生成冒犯性的信息,并且擴大在模型訓(xùn)練數(shù)據(jù)中可能存在的偏差。蘇卡爾稱,為了避免這些情況,Intuit Mailchimp正在謹(jǐn)慎地選擇能夠使用其生成式人工智能工具的行業(yè)。(她拒絕透露目前Intuit Mailchimp的生成式人工智能不支持哪些行業(yè)。)

但區(qū)別在于,雖然人工智能的能力正在快速增強,變得可以接管從日?,嵤碌絼?chuàng)意工作等各種任務(wù),但財捷集團仍然相信人類在這個世界中依舊有一席之地。人工智能生成的每一條內(nèi)容在被發(fā)送給客戶之前,都會由用戶進行審查。糟糕的或不準(zhǔn)確的回答等惡化情況,能夠上報給人類內(nèi)容審查員。蘇卡爾指出,就像人們可以在TurboTax上與人類專家溝通一樣,在市場營銷領(lǐng)域離不開人類專家。

蘇卡爾說:“人類專家仍舊能夠提供人工智能所不具備的更高層次的專業(yè)知識,并提高小企業(yè)的信心。”

其他科技公司正在采取措施幫助人們了解其人工智能如何工作,并區(qū)分真實內(nèi)容與人工智能生成的內(nèi)容。TikTok為創(chuàng)作者推出了一款工具,用于標(biāo)記人工智能生成的內(nèi)容,而且該公司在2023年還表示正在測試自動標(biāo)記這類內(nèi)容的方法。Meta宣布將在Facebook、Instagram和Threads上標(biāo)記人工智能生成的圖片。微軟(Microsoft)在一篇博客里解釋了其為生成式人工智能產(chǎn)品Copilot和Microsoft Designer執(zhí)行的安全保護措施。2023年,谷歌(Google)修改了搜索算法,把人工智能生成的高質(zhì)量內(nèi)容考慮在內(nèi)。

區(qū)分真實內(nèi)容和人工智能生成的內(nèi)容,只是人工智能問題的一部分。深度造假技術(shù)的泛濫,例如最近偽造的泰勒·斯威夫特的露骨圖片等,暴露出人工智能存在的一個根本問題。Ceartas公司使用人工智能模型打擊在線剽竊行為。該公司的聯(lián)合創(chuàng)始人及首席執(zhí)行官丹·珀塞爾稱,他已經(jīng)可以為客戶刪除越來越多的人工智能生成的圖片。他的客戶既有名人和內(nèi)容創(chuàng)作者,也有公司高管。

珀塞爾說:“我們的技術(shù)工作的方式是創(chuàng)建一個侵權(quán)模型,我們不需要訪問原始內(nèi)容,也不需要對視頻片段進行指紋識別。我們只需要知道內(nèi)容的名稱,因為人們正是通過名稱來在線查找內(nèi)容。在服務(wù)個別內(nèi)容創(chuàng)作者和企業(yè)時,我們會對技術(shù)進行小幅調(diào)整,使其更加具體到品牌或個人,然后更廣泛地應(yīng)用所獲取的信息?!?/p>

過去兩年證明,人工智能的進步只會變得越來越好。(看看OpenAI的文本生成視頻平臺Sora獲得的反應(yīng)就可見一斑。)斯托楊諾維奇指出,雖然我們可能再也無法避免使用人工智能,但我們還需要做更多的工作,集合行業(yè)參與者、學(xué)術(shù)界人士、政策制定者和用戶,就可行的人工智能治理框架達成共識。與此同時,隨著人們開始在日常生活中看到越來越多的使用人工智能的例子,她提出了這條建議:

“要對人工智能和其他技術(shù)的能力保持合理的懷疑態(tài)度,這一點很重要?!彼雇袟钪Z維奇說,“如果這聽起來難以置信,同時如果我們不知道模型所使用的數(shù)據(jù)以及模型的驗證方式,那么它可能并不像廣告里宣傳的那樣有效。”(財富中文網(wǎng))

譯者:劉進龍

審校:汪皓

In a short time, AI has gone from being a technology used by the tech elite to one that most people use—or at least encounter—daily. AI is being deployed in health apps, customer service interactions, on social media, and in marketing emails, to name just a few examples. While companies are building their own AI and figuring out how the technology fits into their businesses, they’re also facing the challenge of how to transparently convey the ways in which they’re using these advancements.

“Many are subjected to AI, often without an explicit decision to use these systems,” said Julia Stoyanovich, professor and director of the Center for Responsible AI at New York University. “We want to give the ability to decide, to help debug, to help understand the benefits, and look out for risks and harms, back to people.”

According to a KPMG survey released this year, 42% of people believe generative AI is already having a “significant impact” on their personal lives, while 60% expect this within the next two years. Despite AI’s outsize impact, only 10% of Americans report being “more excited than concerned” about AI, according to a study last year from the Pew Research Center. As policymakers around the world examine potential regulations for AI, some companies are proactively offering insight into steps they’re taking to innovate responsibly.

At Intuit, AI is integrated across the company’s line of products, including generative AI assistants in TurboTax, QuickBooks, Credit Karma, and a suite of tools on the company’s email marketing platform, Mailchimp. Millions of models are driving 65 billion machine learning predictions everyday and conducting 810 million AI-powered interactions annually, according to the company.

“Five years ago we declared our strategy as a company was to build an AI-driven expert platform, which combines AI and expertise. We now have millions of live, AI-driven models in the offerings today as a result of that investment,” said Rania Succar, CEO of Intuit Mailchimp. “When generative AI came along, we were ready to go really big because of the investment we’ve made and because of the potential we saw for our end customers.”

With so many data points in small businesses demonstrating what works and what doesn’t, the company saw an opportunity to bring generative AI to the masses—not just the big players who can afford to build their own AI models. Intuit built its own generative AI operating system that keeps the data it trains on private, Succar said. Intuit Mailchimp customers are then able to use the AI to generate marketing emails and text in their brand’s voice, and set up automated emails to help welcome new customers or remind someone when they’ve left an item in their online cart.

In the past few months, Intuit Mailchimp has seen generative AI text generation adoption grow by more than 70%, Succar said. Despite the growth, the company is being careful about how the product is scaled.

One of the inherent problems with AI models everywhere is that they are never perfect. AI can hallucinate false information, generate offensive information, and exacerbate biases that might be present in the model’s training data. In an effort to keep this from happening, Succar said Intuit Mailchimp is being deliberate in selecting industries that have access to its generative AI tools. (She declined to say which industries Intuit Mailchimp currently does not support with generative AI.)

Perhaps the differentiator, though, is that Intuit still believes there’s a place for humans in a world where AI is rapidly becoming capable of taking over everything from the mundane to the creative. Every piece of generated content is reviewed by the user before it is sent out to clients. Escalations, such as poor or inaccurate answers, can be reported to human content reviewers. Just as people can connect with a human expert on TurboTax, Succar said, there’s a place for human experts in marketing.

“Human experts will always be able to add the next level of expertise that AI doesn’t and create confidence for the small business,” Succar noted.

Other technology companies are taking steps to help people understand how their AI works and discern between what’s real and what isn’t. TikTok rolled out a tool for creators to label their AI-generated content and said last year it is also testing ways to do so automatically. Meta announced it will label AI-generated images on Facebook, Instagram, and Threads. Microsoft explained in a blog post the safeguards it’s put in place for its generative AI products Copilot and Microsoft Designer. And last year, Google revised its search algorithm to consider high-quality AI-generated content.

Understanding what’s real and what isn’t is only one part of the equation. The proliferation of deepfakes, most recently explicit images?in the likeness of?Taylor Swift, have highlighted a fundamental problem with AI. Dan Purcell, cofounder and CEO of Ceartas, a company that uses AI models to combat online piracy, said he’s been able to get an increasing number of AI-generated images removed for his clients, who range from celebrities and content creators to C-suite executives.

“The way our technology works is we build a model of an infringement. We don’t need access to the original content. We don’t need to fingerprint clips. We just need the name of the content, because that is how people find it online,” he said. “When we look at individual content creators and businesses, we slightly change ingredients to be more specific to that brand or individual, and then apply the learning to a broad spectrum.”

As the past two years have demonstrated, advancements in AI are only going to keep getting better. (Look no further than the reaction to Sora, OpenAI’s text-to-video platform.) While there may no longer be an option to avoid AI, Stoyanovich said there’s more work that will need to be done, bringing together industry players, academics, policymakers, and users to come to a consensus on an actionable AI governance framework. In the meantime, as people start to notice more examples of AI in their day-to-day, she offered this advice:

“What is important is to keep a healthy dose of skepticism about the capabilities of this and other kinds of technology,” she said. “If it sounds too good to be true and, at the same time, if we don’t know what data the model is based on and how it was validated, then it probably doesn’t work as advertised.”

財富中文網(wǎng)所刊載內(nèi)容之知識產(chǎn)權(quán)為財富媒體知識產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專屬所有或持有。未經(jīng)許可,禁止進行轉(zhuǎn)載、摘編、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
丰满少妇?级毛片| 日韩av人人夜夜澡人人爽| 久久久99精品免费观看| 97超级碰碰碰人妻中文| 中文成人无码精品久久久不卡| 国产精品香港三级国产AV| 在线a亚洲ⅴ天堂网2018| 日韩午夜福利网址视频| 日本一区二区三区不卡免费| 欧美线人一区二区三区| 柠檬AV导航国产精品久久久| 丰满少妇人妻hd高清大乳在线| 久久水蜜桃亚洲av无码精品麻豆| 手机在线观看亚洲国产精品| 久久中文精品无码中文字幕| 91人妻人人澡人人爽人人精品| 少妇爽到流白浆18P| 日韩精品免费在线观看视频| 人与禽性视频77777| 日韩电影无码A不卡| 久久夜色精品国产网站| 人妻中文无码久热丝袜| 欧美日韩国产综合视频在线看| 亚洲精品熟女国产| 日韩欧美视频在线播放| 一本色道无码不卡在线观看| 国产女人高潮叫床免费视频| 国产成人亚洲综合色就色| 国产伦精品一区二区三区| 免费大片黄在线观看视频动漫真人3d日韩国产| 无码人妻精品中文字幕免费东京热| 久久精品久久久久久噜噜中文字幕| 日韩av片无码一区二区三区不卡| 97久久人人爽人人爽人人片| 91无码人妻精品一区二区蜜桃| 精品无码免费专区午夜| 999热成人精品国产免| 丰满少妇?级毛片| 一本一道波多野结衣AV中文| 综合色区亚洲熟女妇p | 亚洲精品无码AV中文字幕|