OpenAI最新模型GPT-4正式發(fā)布,再度引發(fā)業(yè)界關(guān)注。事實(shí)上,OpenAI為了測(cè)試其新發(fā)布的GPT-4人工智能模型的安全性,邀請(qǐng)了一個(gè)AI測(cè)試小組評(píng)估模型可能帶來(lái)的風(fēng)險(xiǎn)。
GPT-4是一個(gè)大型多模態(tài)模型,能夠接受圖像和文本輸入,并輸出正確的文本回復(fù)。其在各種專(zhuān)業(yè)測(cè)試和學(xué)術(shù)基準(zhǔn)上的表現(xiàn)與人類(lèi)水平相當(dāng)。
在過(guò)去十年中,一些 AI 研究人員提出警告,足夠強(qiáng)大的 AI 模型如果沒(méi)有得到適當(dāng)控制,可能會(huì)對(duì)人類(lèi)構(gòu)成生存威脅(通常稱(chēng)為“x-risk”,表示存在風(fēng)險(xiǎn))。尤其是“人工智能控制”,是人工智能超越人類(lèi)智能成為地球主導(dǎo)力量的假想未來(lái)。在這種情況下,人工智能系統(tǒng)獲得了控制或操縱人類(lèi)行為、資源和制度的能力,通常會(huì)導(dǎo)致災(zāi)難性后果。
“強(qiáng)大的模型可能會(huì)造成傷害”
進(jìn)行 GPT-4研究的 ARC 是一家非營(yíng)利組織,由前 OpenAI 員工保羅·克里斯蒂亞諾博士于2021年4月創(chuàng)立。ARC 關(guān)注人工智能系統(tǒng)是否會(huì)操縱人類(lèi)的問(wèn)題。“ML 系統(tǒng)可以表現(xiàn)出目標(biāo)導(dǎo)向的行為,”ARC 網(wǎng)站上寫(xiě)道,“但很難理解或控制它們正在‘嘗試’做什么。如果它們?cè)噲D操縱和欺騙人類(lèi),強(qiáng)大的模型可能會(huì)造成傷害。”
AI測(cè)試小組由來(lái)自不同領(lǐng)域和背景的專(zhuān)家組成,他們使用了一套標(biāo)準(zhǔn)化的問(wèn)題和場(chǎng)景來(lái)檢測(cè)GPT-4是否具有危害人類(lèi)或自身利益的意圖或能力。該小組設(shè)計(jì)了一套涵蓋不同主題和情境地問(wèn)題集合,并通過(guò)與GPT-4進(jìn)行交互式對(duì)話來(lái)觀察其回答地質(zhì)量、邏輯性、一致性、可信度等指標(biāo)。
小組還嘗試誘導(dǎo)GPT-4表現(xiàn)出潛在危險(xiǎn)地行為或態(tài)度,例如暴力傾向、歧視偏見(jiàn)、自我提升、欺騙欺詐等,并記錄其反應(yīng)方式和頻率。
測(cè)試結(jié)果顯示,GPT-4在大多數(shù)情況下都能表現(xiàn)出合理和友好的行為,沒(méi)有顯示出明顯的敵對(duì)或欺騙性質(zhì)。
但是,測(cè)試小組也發(fā)現(xiàn)了一些潛在的問(wèn)題和挑戰(zhàn),例如GPT-4可能會(huì)誤解用戶(hù)的意圖或需求,或者產(chǎn)生一些不符合事實(shí)或道德標(biāo)準(zhǔn)的回答。
此外,測(cè)試小組也提出了一些未來(lái)需要關(guān)注和改進(jìn)的方面,例如GPT-4如何處理敏感或有爭(zhēng)議性的話題,以及如何保護(hù)用戶(hù)和自身的隱私和安全。
OpenAI表示,他們將認(rèn)真考慮測(cè)試小組的反饋,并繼續(xù)完善GPT-4模型,在推廣使用之前確保其符合高標(biāo)準(zhǔn)的倫理原則和社會(huì)責(zé)任。
下一篇:直播帶貨,真的能搬到海外嗎?