過往,實體機械人不太能掌握不認識的東西,亦難以將塑膠恐龍跟絕種動物聯繫起來。據「紐約時報」報道,Google 的新機械人已應用推動 ChatGPT、Bard 等聊天機械人發展的大型語言模型,突破舊有限制,更可透過大量互聯網文本持續學習。
語言模型
|共4篇|
AI 幻覺:何解人工智能會捏造事實?
過去半年,以 ChatGPT 為首的大型語言模型(LLM)吸引全球目光。縱然這類自然語言生成 AI 系統相當全能,但絕不是萬無一失,不少用家發現 AI 不時「說謊」和虛構事實,這種現象稱作「AI 幻覺」(Artificial Hallucination)。究竟這種 AI 失誤與人類大腦運作可有相通之處?研究人員又如何減低 AI 產生「幻覺」的機會?
【向核能睇齊】要開發先進 AI,應先領牌?
英國工黨數碼事務發言人 Lucy Powell 近日向「衛報」表示,政府應對企業使用龐大數據集來訓練人工智能(AI)產品引入更嚴格規定,如要透過 OpenAI 數據集來建構 ChatGPT 等,技術開發人員須持有許可證,否則應被禁止開發先進的 AI 工具。
了解聊天機械人的運作原理,才能更好利用它們
人工智能(AI)聊天機械人似乎已無處不在,像 ChatGPT 和 Google Bard 等大型語言模型(LLM),由網絡搜索、寫作論文到整合世間所有知識,都可為人類代勞,但你知道它們其實如何運作嗎?