人工智能軍備競賽的最新事態(tài)顯示,Meta祭出了潛力十足的殺器:該公司在7月18日宣布,它將免費對公眾開放其大型語言模型Llama 2。此舉與這一熱議行業(yè)的其他首要參與者形成了鮮明的對比,例如谷歌(Google)和OpenAI,這兩者到目前為止依然選擇奉行模型保密路線。
Meta的首席執(zhí)行官馬克·扎克伯格在Facebook的一篇帖文中寫道:“我認為,如果這個生態(tài)更開放,那么就將帶來更大的進步,這也是我們開源Llama 2的原因?!?/p>
Meta的Llama 2模型將繼續(xù)由微軟(Microsoft)的Azure云服務提供支持。這兩家公司曾經共同開發(fā)了今年2月發(fā)布的該產品之前的迭代版本,而且微軟是Meta的云服務提供商。當然,微軟還向OpenAI公司投資了至少100億美元,后者是大熱聊天機器人ChatGPT的開發(fā)商。
開源的利與弊
扎克伯格的決定并非沒有爭議。Meta一直以來都是開源舉措的支持者。該做法的擁護者認為,此舉將提升透明度,并避免強大的新技術被少數公司所壟斷。反對者認為,這些工具將不可避免地被不良分子利用,他們會刻意或在不經意間漠視更廣泛的公共安全。
其中一位批評者便是OpenAI自己。今年3月,OpenAI與其作為一家開源公司的初心以及其公司名背道而馳,讓科技界一片嘩然,其中包括特斯拉(Tesla)的首席執(zhí)行官埃隆·馬斯克。在科技博客The Verge的采訪中,OpenAI的首席科學家與聯合創(chuàng)始人伊利亞·蘇茨克維爾將Meta的開源決策稱之為技術性“錯誤”。他說:“在幾年之內,所有人都會異常清楚地認識到,人工智能開源舉措是不明智的?!?/p>
Meta認為,將這些工具開源會提升其安全性。理由是隨著開發(fā)者不斷微調其模型,并按照不同的目的進行定制,他們將揭曉諸多需要解決的潛在問題。
Meta在一則聲明里稱:“開放訪問當今人工智能模型的渠道意味著一整代開發(fā)人員和研究人員都可以對其進行壓力測試,并作為一個團體快速發(fā)現并解決問題。通過觀察其他人如何使用這些工具,我們自己的團隊能夠從中學習,改善這些工具,并修補漏洞?!?/p>
Meta指出,新發(fā)布的模型已經經過了安全測試。該模型經歷了外部第三方的對抗性測試。這類測試在人工智能研究界又被稱為紅隊判研,它要求研究人員嘗試將新系統(tǒng)用于人們心目中可以發(fā)揮其公眾保護用途的確切場景,并借此來測試其安全功能。Meta還發(fā)布了可接受的樣板使用政策,禁止將Llama用于犯罪活動、戰(zhàn)爭等類似用途。
另一家進軍人工智能的主流科技公司亞馬遜(Amazon)似乎想在這兩種方式里找到一條折中路線。亞馬遜的首席執(zhí)行官安迪·賈西表示,公司計劃通過訂閱模式來提供訪問其模型的渠道,盡管它不一定面向所有人開放,但不會走閉源路線。(財富中文網)
譯者:馮豐
審校:夏林
人工智能軍備競賽的最新事態(tài)顯示,Meta祭出了潛力十足的殺器:該公司在7月18日宣布,它將免費對公眾開放其大型語言模型Llama 2。此舉與這一熱議行業(yè)的其他首要參與者形成了鮮明的對比,例如谷歌(Google)和OpenAI,這兩者到目前為止依然選擇奉行模型保密路線。
Meta的首席執(zhí)行官馬克·扎克伯格在Facebook的一篇帖文中寫道:“我認為,如果這個生態(tài)更開放,那么就將帶來更大的進步,這也是我們開源Llama 2的原因?!?/p>
Meta的Llama 2模型將繼續(xù)由微軟(Microsoft)的Azure云服務提供支持。這兩家公司曾經共同開發(fā)了今年2月發(fā)布的該產品之前的迭代版本,而且微軟是Meta的云服務提供商。當然,微軟還向OpenAI公司投資了至少100億美元,后者是大熱聊天機器人ChatGPT的開發(fā)商。
開源的利與弊
扎克伯格的決定并非沒有爭議。Meta一直以來都是開源舉措的支持者。該做法的擁護者認為,此舉將提升透明度,并避免強大的新技術被少數公司所壟斷。反對者認為,這些工具將不可避免地被不良分子利用,他們會刻意或在不經意間漠視更廣泛的公共安全。
其中一位批評者便是OpenAI自己。今年3月,OpenAI與其作為一家開源公司的初心以及其公司名背道而馳,讓科技界一片嘩然,其中包括特斯拉(Tesla)的首席執(zhí)行官埃隆·馬斯克。在科技博客The Verge的采訪中,OpenAI的首席科學家與聯合創(chuàng)始人伊利亞·蘇茨克維爾將Meta的開源決策稱之為技術性“錯誤”。他說:“在幾年之內,所有人都會異常清楚地認識到,人工智能開源舉措是不明智的?!?/p>
Meta認為,將這些工具開源會提升其安全性。理由是隨著開發(fā)者不斷微調其模型,并按照不同的目的進行定制,他們將揭曉諸多需要解決的潛在問題。
Meta在一則聲明里稱:“開放訪問當今人工智能模型的渠道意味著一整代開發(fā)人員和研究人員都可以對其進行壓力測試,并作為一個團體快速發(fā)現并解決問題。通過觀察其他人如何使用這些工具,我們自己的團隊能夠從中學習,改善這些工具,并修補漏洞?!?/p>
Meta指出,新發(fā)布的模型已經經過了安全測試。該模型經歷了外部第三方的對抗性測試。這類測試在人工智能研究界又被稱為紅隊判研,它要求研究人員嘗試將新系統(tǒng)用于人們心目中可以發(fā)揮其公眾保護用途的確切場景,并借此來測試其安全功能。Meta還發(fā)布了可接受的樣板使用政策,禁止將Llama用于犯罪活動、戰(zhàn)爭等類似用途。
另一家進軍人工智能的主流科技公司亞馬遜(Amazon)似乎想在這兩種方式里找到一條折中路線。亞馬遜的首席執(zhí)行官安迪·賈西表示,公司計劃通過訂閱模式來提供訪問其模型的渠道,盡管它不一定面向所有人開放,但不會走閉源路線。(財富中文網)
譯者:馮豐
審校:夏林
In the latest development in the A.I. arms race, Meta has a potential bombshell: It will make its large language model, Llama 2, available for free to the public, the company announced on July 18. The move comes in stark contrast to other major players in the hot-button industry, like Google and OpenAI, who have so far opted to keep their models confidential.
“I believe it would unlock more progress if the ecosystem were more open, which is why we’re open-sourcing Llama 2,” Meta CEO Mark Zuckeberg wrote in a post on Facebook.
Meta’s Llama 2 model will continue to be powered by Microsoft’s Azure cloud services. The two companies had partnered on an earlier iteration of the product released in February and Microsoft is Meta’s cloud services provider. Of course, Microsoft has also invested at least $10 billion in OpenAI, maker of the mega-popular chatbot ChatGPT.
The pros and cons
Zuckerberg’s decision is not uncontroversial. Proponents of the open-source approach, which Meta has long supported, believe it encourages transparency and avoids consolidating powerful new technologies in the hands of a select few. Critics believe the tools will inevitably be coopted by bad actors, who will either intentionally or inadvertently disregard broader public safety.
One of those critics is OpenAI itself. In March, OpenAI went back on its origins as an open-source company—hence the name—drawing raised eyebrows from the tech world including Tesla CEO Elon Musk. The chief scientist and co-founder of OpenAI Ilya Sutskever, called the company’s decision to open-source its tech “wrong,” in an interview with The Verge. “In a few years it’s going to be completely obvious to everyone that open-sourcing AI is just not wise,” he said.
Meta is taking the view that opening these tools to the public will make them safer. The rationale is that as developers tinker with their models, customizing them for a variety of purposes, they’ll uncover potential problems to address.
“Opening access to today’s AI models means a generation of developers and researchers can stress test them, identifying and solving problems fast, as a community,” Meta said in a statement. “By seeing how these tools are used by others, our own teams can learn from them, improve those tools, and fix vulnerabilities.”
The newly released model has already been tested for safety, according to Meta. The model underwent external adversarial testing from third parties. The practice, referred to as red-teaming in the world of A.I. research, tests safety features by asking researchers to attempt to use a new system for the exact use cases one might hope to protect the public against. Meta also released a boilerplate acceptable use policy that prohibits using Llama in criminal activity, warfare, and the like.
Amazon, another of the major tech companies entering the A.I., seems to want to split the difference between the two approaches. Amazon CEO Andy Jassy said the company plans to offer access to its models via a subscription model, which while not necessarily open to everyone, still wouldn’t keep the tech from the public.