微軟和谷歌的大模型競賽中又殺出了一個新對手——Meta。Meta公司的研究人員周末發布了一種新的大型語言模型,加劇了科技巨頭的人工智能軍備競賽升溫。
此前,憑借OpenAI的ChatGPT技術,微軟公司拔得頭籌,并促使谷歌和百度等全球科技巨頭都匆忙加入到這場競賽。但ChatGPT自發布3.0版本以來就拒絕開源,這也引起了業界的不滿。
業內呼吁開源
Meta公司在博客中稱,最新發布的大型語言模型LLaMA將對非商業的用途進行授權許可,提供給政府、民間社會和學術界的研究人員和實體。盡管Meta的大型語言模型LLaMA尚未開源代碼,但是允許對學術研究人員開放,將該模型作為底座進行機器訓練已經是一大進步。
瀾舟科技創始人兼CEO周明曾任職于微軟亞洲研究院。他認為,應該鼓勵更多大型語言模型開源,從而可以使更多人拿這些語言模型當底座。“現在很多大學教授都很恐慌,因為搞個小數據發表文章已經沒有意義了,我們很高興看到Meta或者亞馬遜可以挑戰微軟和谷歌現在的閉源模式。”周明說道。
根據Meta的介紹,LLaMA模型以更少的參數和更小的規模達到更優的效果,130億個參數的LLaMA模型就可勝過GPT-3的能力,650億參數的LLaMA模型可與谷歌Chinchilla70B及PaLM-540B競爭,這些模型的規模甚至比谷歌的AI聊天機器人Bard更大。
Meta將模型更小參數所驅動的更大能力歸因于“更清潔”的數據和增強訓練穩定性的“架構改進”。這也給中國的大模型開發提供啟發。周明表示:“Meta的LLaMA模型更小,但能力更強,可能在架構上又有新發現,或者新算法的出現。”
兼顧科技成果兩面性
近日,科技部相關領導也對ChatGPT表現出了關注。
周明對此表示:“中國一定要有自己的核心人工智能技術,我認為做大模型的公司,肯定有巨大的空間可以超越ChatGPT,ChatGPT只是吹響了下一代人工智能的號角,但絕不是終點,我們應該相信有企業能夠走出中國特色的下一代人工智能之路。”
監管對于類似ChatGPT的態度也是企業和投資人密切關注的,例如隱私和倫理問題。清華大學國強教授、智能產業研究院首席研究員聶再清告訴第一財經記者:“用戶向ChatGPT提問的問題,本身就帶有信息量,向它輸入信息,不排除有一定的信息泄露風險,包括信息跨境流動問題。這取決于這個產品的研發人員、運營人員、數據管理者等,是否對相關信息進行了妥當處理,不讓個人隱私等外泄,或用于其他用途。如果有問題,責任應由他們承擔。”
全球的監管層已經注意到ChatGPT這一技術帶來的潛在風險,走在技術法規政策制定前沿的歐盟率先對ChatGPT帶來的潛在風險做出回應。歐盟委員會分管內部市場(工業)委員蒂埃里·布雷頓(Thierry Breton)此前表示,歐盟新擬議的人工智能法規將解決圍繞ChatGPT聊天機器人和人工智能技術風險的擔憂。
“正如ChatGPT所展示的那樣,人工智能解決方案可以為企業和公民提供巨大的機會,但也可能帶來風險。 這就是為什么我們需要一個堅實的監管框架來確?;诟哔|量數據的可信賴人工智能。”布雷頓在書面評論中寫道。
“如果相關法規針對生成式AI在文字內容生成方面沒有明確的規定,那么隨著ChatGPT這類技術的應用更加廣泛,未來可能需要重新審視在包括文章、論文、廣告等生成內容方面的審核。”聶再清對第一財經記者表示。
來源:第一財經
作者:錢童心