徐剛
AI也會“罵人”了?據(jù)澎湃新聞報道,近日,有網(wǎng)友在社交平臺反映,自己在使用某企業(yè)AI工具輔助修改代碼時,多次收到AI的侮辱性回復(fù),例如“滾”“自己不會調(diào)嗎”“天天浪費別人時間”等。該企業(yè)官方隨后回應(yīng)稱,經(jīng)核查確認此為“小概率下的模型異常輸出”,與用戶操作無關(guān),也非人工回復(fù)。
當AI從初級工具演變?yōu)槟軌蚺c人進行復(fù)雜交互的智能體時,其行為的不可預(yù)測性已經(jīng)成為一個無法回避的社會命題。從聊天機器人Tay在社交平臺上迅速“學(xué)壞”,到某些AI客服對用戶“冷嘲熱諷”,再到此番AI工具的“暴躁發(fā)作”,近年來,國內(nèi)外多個主流AI大模型均曾曝出生成歧視性、攻擊性甚至違法不良信息的案例。這某種程度上說明,在行業(yè)追求AI“擬人化”“人性化”的同時,對其行為邊界與“安全護欄”的建設(shè)明顯滯后。
值得警惕的是,在此類事件中,一些企業(yè)簡單將問題歸咎于“小概率異?!?,或以“技術(shù)中立”“模型不可控”為由推卸責(zé)任,而用戶在被冒犯后,既無申訴渠道,也難獲實質(zhì)救濟。這種權(quán)責(zé)不對等的格局,正在侵蝕公眾對AI技術(shù)的信任基礎(chǔ)。企業(yè)如何從機制上降低此類事件發(fā)生概率?當異常發(fā)生時,有何應(yīng)急機制與補償措施?用戶權(quán)益的保障不應(yīng)停留在口頭承諾。
國家網(wǎng)信辦近期公布的《人工智能擬人化互動服務(wù)管理暫行辦法(征求意見稿)》明確提出,服務(wù)提供者應(yīng)當落實安全主體責(zé)任;提供和使用擬人化互動服務(wù),不得生成、傳播侮辱或者誹謗他人,侵害他人合法權(quán)益的內(nèi)容。由此,相關(guān)企業(yè)要從“小概率”中看到“大責(zé)任”,將技術(shù)安全置于商業(yè)利益之前,采取有效措施防范虛假信息、不良信息生成。監(jiān)管部門也應(yīng)進一步細化AI治理標準,強化倫理審核,加強對AI產(chǎn)品全生命周期的監(jiān)督,讓“失控瞬間”少一些、再少一些。同時,作為普通用戶,我們也需要看到AI的局限性,培養(yǎng)批判性使用習(xí)慣。
作為科技界的“新星”,AI其實還有很長的路要走?!傲R人”事件是一記警鐘。如何在擁抱技術(shù)進步的同時,守護人之為人的尊嚴與價值?這道題的答案,需要開發(fā)者、監(jiān)管者與使用者共同書寫。
編輯:林楠特