3 月 7 日 WSJ 的一篇長文剛講述 Google 如何在過于謹慎和自我束縛下,錯失了發(fā)布類似 ChatGPT 的聊天機器人的先機,作者認為高管在保持技術發(fā)展優(yōu)勢和維護倫理安全之間舉棋不定。
(相關資料圖)
一天后,Google 機器人團隊、柏林理工大學和 Google 研究提出一種新的人工智能模型 PaLM-E,它由一組神經(jīng)網(wǎng)絡組成,可以處理不同形式的數(shù)據(jù),比如圖像、聲音、文本還有機器人控制策略,從而實現(xiàn)對機器人的控制和操作。
三方團隊聯(lián)合發(fā)表的論文詳細解釋如何利用可視化數(shù)據(jù)增強語言處理能力。研究人員先使用大規(guī)模的圖像和文本數(shù)據(jù)集對一個深度學習模型進行訓練,以使其學習到一些通用的特征和知識,然后再在特定任務上進行微調(diào),從而提高其對圖像和自然語言之間關系的理解,并在機器人控制等任務中發(fā)揮更好的作用。用來訓練模型的 “素材” 包括圖像標注、視覺問答和圖像分類等。
作者還舉例一些具體使用場景,包括:
-在機器人控制任務中,PaLM-E 可以根據(jù)自然語言指令和視覺輸入生成機器人控制策略。
-在視覺問答任務中,PaLM-E 可以根據(jù)圖像和自然語言問題生成相應的回答。
-在機器手臂移動操作任務中,PaLM-E 可以根據(jù)自然語言指令和機器人狀態(tài)生成移動路徑和操作序列。
-在包含文本、圖像、聲音的多模態(tài)對話系統(tǒng)中,PaLM-E 可以理解用戶的自然語言輸入并生成相應的回復。
根據(jù)研究小組的說法,他們曾引導機器手臂按照指示精確地將紅色塊移向目標杯子 —— 即便訓練數(shù)據(jù)中只有三個咖啡杯。
Google 的科研能力和資金儲備毋庸置疑,但如它們自己說的,研究原型和一款每天可以安全使用的可靠產(chǎn)品之間存在巨大差距。并且相較于小型創(chuàng)業(yè)公司,Google 必須更加深思熟慮地發(fā)布 AI 技術。
如在 WSJ 的報道中,兩名 Google 研究員兩年多前開始推動公司發(fā)布一款聊天機器人,后者可以自信地探討哲學問題,談論自己喜歡的電視節(jié)目,同時還可以即興制作有關牛和馬的雙關語,其技術比當時其他任何聊天機器人都要先進。
這遭 Google 高管們多次拒絕,理由是不符合公司對 AI 安全和公平性的倫理標準。兩位研究員丹尼爾和諾姆離職創(chuàng)辦自己的 AI 公司。Google 最近緊急發(fā)布的聊天機器人 Bard,部分基于二人的技術。
Google 對于推動人工智能技術應用的擔憂主要來自兩方面,一是長期以來關于人工智能的爭議可能影響公司聲譽,二是擔心因此沖擊自己的廣告業(yè)務。
第一個擔心長期存在于學術界和技術應用領域。甚至 OpenAI 成立初衷之一也是希望有朝一日有能力對抗可能被大公司濫用(比如 Google)的邪惡 AI。
2016 年,微軟發(fā)布了一款名為 Tay 的聊天機器人,但僅僅上線數(shù)小時后,就在一些用戶 “調(diào)教” 下,發(fā)表了諸如 “布什是 ‘9·11’ 事件的幕后黑手” “希特勒一點也沒錯” 等聳人聽聞的言論。
第二個則是不可避免的大公司病,即在維護現(xiàn)有的盈利模式和客戶群體、保持穩(wěn)定的現(xiàn)金流和市場地位,與持續(xù)創(chuàng)新以應對市場變化和新興競爭對手的威脅之間搖擺,通常最后是前者戰(zhàn)勝后者,從而給了后來者機會。舊去新來是商業(yè)規(guī)律之一,也是商業(yè)世界的魅力。(邱豪 龔方毅)
關鍵詞: