谷歌通過更新使用政策的形式明確表示,只要有人工監(jiān)督,客戶可以在“高風(fēng)險(xiǎn)”領(lǐng)域(如醫(yī)療保健)使用其生成式人工智能工具來作出“自動(dòng)決策”。
根據(jù)該公司周二發(fā)布的《生成式 AI 禁止使用政策》更新版,客戶可以在一定條件下使用谷歌的生成式 AI 作出可能對(duì)個(gè)人權(quán)利產(chǎn)生重大不利影響的“自動(dòng)化決策”,例如在就業(yè)、住房、保險(xiǎn)和社會(huì)福利等領(lǐng)域。這些決策只要在某種形式上有人類監(jiān)督,就被允許實(shí)施。
注:在人工智能領(lǐng)域,自動(dòng)化決策是指 AI 系統(tǒng)基于事實(shí)或推斷數(shù)據(jù)作出的決策。例如,AI 可能會(huì)根據(jù)申請(qǐng)人的數(shù)據(jù)作出是否批準(zhǔn)貸款的決定,或者篩選求職者。
谷歌之前的條款草案表示,涉及生成式 AI 的高風(fēng)險(xiǎn)自動(dòng)化決策應(yīng)當(dāng)全面禁止。但谷歌向外媒 TechCrunch 透露,其生成式 AI “實(shí)際上從未禁止”過高風(fēng)險(xiǎn)領(lǐng)域的自動(dòng)化決策,前提是有人工監(jiān)督。
谷歌發(fā)言人在接受采訪時(shí)表示:“人工監(jiān)督要求一直存在,適用于所有高風(fēng)險(xiǎn)領(lǐng)域!彼a(bǔ)充說:“我們只是對(duì)條款進(jìn)行了重新分類,并更清楚地列舉了一些具體例子,目的是讓用戶更加明了!
針對(duì)那些影響個(gè)人的自動(dòng)化決策,監(jiān)管機(jī)構(gòu)對(duì) AI 的潛在偏見表示關(guān)切。例如,研究顯示,用于審批信用和抵押貸款申請(qǐng)的 AI 系統(tǒng)可能會(huì)加劇歷史上存在的歧視問題。
報(bào)道稱,因?yàn)樽詣?dòng)決策系統(tǒng)可能會(huì)影響到個(gè)體,監(jiān)管機(jī)構(gòu)對(duì)此類人工智能系統(tǒng)的潛在偏見問題表示關(guān)注。研究表明,用于信用和抵押貸款審批的人工智能系統(tǒng)可能會(huì)加劇歷史上的歧視問題。