人(rén)工(gōng)智能(néng) (AI)正在無處不(bù)在地(dì)做(zuò)出決策。在工(gōng)廠(chǎng)和(hé)其他(tā)工(gōng)業(yè)應用∑(yòng)中,AI正在掃描産品缺陷。它引導機(jī)器(qì)人(rén)穿過車(chē)間(jiān)。AI可(kě)以告訴你(nǐ)生(shēng)産線何時(s₹hí)停機(jī),以及如(rú)何在問(wèn)題發生(shēng)之前解決問(wèn)題。AI将幫助您的(de)工(gōng)程師(shī)如(rú)何優化(huà)生(shēng)産或減↑少(shǎo)浪費(fèi)。AI系統可(kě)以通(tōng)過識别工(gōng)人(rén)何時(shí)踏入危險區(qū)域來(lái)幫助确保工(gōng)人(rén)的(de)安全。
挑戰在于人(rén)們是(shì)否可(kě)以信任這(zhè)些(xiē)決定。複雜(zá)的(de)深度學習(xí)神經網絡做(zuò)出的(de)決策通(t£ōng)常無需解釋。由于這(zhè)些(xiē)系統基本上(shàng)是(shì)自(zì)己編程的(de),↑因此它們的(de)決策缺乏可(kě)解釋性。這(zhè)被稱為(wèi)"黑(hēi)匣子(zǐ)εAI"。正在進行(xíng)的(de)研究旨在提高(gāo)AI決策的(de)透明(míng)度。
對(duì)于那(nà)些(xiē)現(xiàn)在部署AI的(de)人(rén)來(lái)說(shuō),我們怎麽知(zhī)道(dào)我們是(shì)否可(kě)以相(xiàngγ)信AI所說(shuō)的(de)話(huà)?處理(lǐ)不(bù)良購(gòu)買建議(yì)或錯(cuò)誤拒絕信用(yòng)購(gò☆u)買的(de)影(yǐng)響隻是(shì)一(yī)些(xiē)小(xiǎo)事(shì),當關鍵操作(zuò)(尤其是(shì)我>們的(de)安全)依賴于AI時(shí)會(huì)發生(shēng)什(shén)麽?
信任是(shì)對(duì)某人(rén)或某事(shì)的(de)可(kě)靠性、真理(lǐ)、能(néng)力和(hé)/或力量的(de)堅定信念。要(yào)讓人(rφén)們相(xiàng)信AI,他(tā)們需要(yào)的(de)不(bù)僅僅是(shì)一(yī)個(gè)黑(hēi)匣子(zǐ)解•釋"AI就(jiù)是(shì)工(gōng)作(zuò)"。它需要(yào)超越這(zhè)一(yī)點,用(yòng)戶需要(yào)通(tōng)過以下(xià)方式信♠任AI:
· 可(kě)解釋性: 用(yòng)戶需要(yào)知(zhī)道(dào)為(wèi)什(shén)麽AI系統會(λhuì)做(zuò)出他(tā)們所做(zuò)的(de)決定。
· 局限性:用(yòng)戶必須了(le)解AI的(de)局限性。此外(wài),AI系統還(hái)需要(yào)意識到(dào★)并适應自(zì)己的(de)局限性。
· 運營透明(míng)度:用(yòng)戶必須實時(shí)查看(kàn)AI系統的(de)運行(xíng)方式,并知(zhī)道(d×ào)它們為(wèi)什(shén)麽會(huì)這(zhè)樣做(zuò)。
· 可(kě)預測性:用(yòng)戶必須能(néng)夠預測AI系統在特定情況下(xià)的(de)反應。
· 道(dào)德:AI系統必須避免道(dào)德問(wèn)題,如(rú)果不(bù)小(xiǎo)心解決,這(zhè)些(xiē)問(wèn)題可(kěλ)能(néng)會(huì)破壞信任。
信任的(de)重要(yào)性
英特爾前工(gōng)業(yè)創新高(gāo)級總監Irene Petrick在談到(dào)信任時(shí)表示,"我們詢™問(wèn)科(kē)技(jì)公司什(shén)麽對(duì)他(tā)們最重要(yào)。大(dà)約三分(fēn)之一(yī)的(de)§評論圍繞著(zhe)信任(圖1),比如(rú)AI是(shì)否以正确的(de)方式使用(yòng)正确的(de)數↑(shù)據。AI應該以預測其他(tā)問(wèn)題的(de)方式,迅速推動更多(duō)更好(hǎo)的¶(de)行(xíng)動。如(rú)果用(yòng)戶不(bù)信任人(rén)工(gōng)智能(néng),這(zhè)就(jiù)無法推動行(xíng)動。"
Neurala首席技(jì)術(shù)官Anatoli Gorchet在2022年(nián)AI和(hé)智能(néng)自(zì)動÷化(huà)會(huì)議(yì)上(shàng)的(de)演講中描述了(le)歸納局限性可(kě)能(néng)引起的(de)信任問(wèn)題。例如(rú),常見(jiàn)的β(de)AI盲點是(shì)環境差異。如(rú)果隻在早上(shàng)捕獲訓練模型數(shù)據,則由于太陽的(de)角度發 生(shēng)了(le)變化(huà),模型精度将在下(xià)午或晚上(shàng)直線下(xià)降。這(zhè)給用(yòng)戶帶來(lái)了(le)信任問(wèn)題,因為(wèi)通↕(tōng)常人(rén)類不(bù)會(huì)犯這(zhè)樣的(de)錯(cuò)誤。
請(qǐng)注意,環境差異可(kě)能(néng)非常微(wēi)妙。考慮将成功的(de)AI部署到(dào)準确性嚴重下(xià)降的(d∑e)新生(shēng)産線上(shàng)。盡管工(gōng)程師(shī)認為(wèi)這(zhè)條線與原始生(shēng€)産線相(xiàng)同,但(dàn)事(shì)實并非如(rú)此:新操作(zuò)員(yuán)比原始操作(zuò$)員(yuán)高(gāo)六英寸,并阻擋了(le)更多(duō)的(de)背景光(guāng),改變了(le)環境條件(jià₽n),而這(zhè)些(xiē)可(kě)能(néng)足以使神經網絡癱瘓。
Gorchet指出,信任需要(yào)很(hěn)多(duō)時(shí)間(jiān)來(lái)發展,但(dàn£)隻需要(yào)一(yī)個(gè)事(shì)件(jiàn)就(jiù)可(kě)以打破。挑戰在于,我們如(rú)何教人(rén)們信任可(kě)能(n↑éng)像這(zhè)樣失敗的(de)系統?
生(shēng)成可(kě)信賴的(de)數(shù)據
AI模型建立在數(shù)據之上(shàng)。因此,如(rú)果用(yòng)戶要(yào)信任AI,他(tā)們必須能(néng)夠信任用(yòng)于構建它的(de♥)數(shù)據,這(zhè)是(shì)有(yǒu)道(dào)理(lǐ)的(de)。Micropsiλ Industries首席技(jì)術(shù)官Dominik Boesl分(fēn)享了(le)數(shù)據影(yǐng)響Ω信任的(de)多(duō)種不(bù)同方式。
對(duì)數(shù)據的(de)信任始于仔細捕獲數(shù)據。"在一(yī)個(gè)案例中,訓練期間(jiān)桌子(zǐ)上(shàng)有(yǒu)一←(yī)支筆(bǐ)。AI認為(wèi)筆(bǐ)是(shì)一(yī)個(gè)參考點,"Boesl說(shuō),隻需要(yào)一(yī)張沒有(yǒu)筆(bǐ)的(de)圖像≥就(jiù)可(kě)以表明(míng)它不(bù)是(shì)必需的(de)。
開(kāi)發人(rén)員(yuán)還(hái)需要(yào)考慮采樣偏差,因為(wèi)它會(huì)影(yǐng)響系統的(de)準确性。采樣偏差的β(de)一(yī)個(gè)常見(jiàn)示例是(shì)照(zhào)明(míng)等環境條件(jiàn)。AI'并不(bù)總是(shì)相(xiàng)同的(de)。有(yǒu)不(bù)同的(de)類型和(hé)技(jì)術(shù)。一(yī)個(gè)人(rén©)尋找的(de)東(dōng)西(xī)并不(bù)一(yī)定與AI正在尋找的(de)東(dōng)西(xī)相(xiàng)匹配。早™在 1995 年(nián),北(běi)約就(jiù)使用(yòng)識别軟件(jiàn)來(lái)區(qū)分(fēn)友(yǒu)方坦克和(hé)敵方坦克。它表現(xiàΩn)不(bù)佳。經過幾個(gè)月(yuè)的(de)故障排除,他(tā)們發現(xiàn)訓練數(shù)♣據是(shì)從(cóng)明(míng)亮(liàng)的(de)光(guāng)線下(xià)幹淨的(de)小(xiǎo)冊子(zǐ)圖片中獲取的(de),而不(bù)是(shì)¥被泥土(tǔ)覆蓋或光(guāng)線不(bù)足的(de)坦克。AI的(de)專注點在于清晰與肮髒。"
"方差在數(shù)據中至關重要(yào),"Boesl說(shuō),"考慮一(yī)下(xià)特斯拉演示車(chē)手必須擁有(yǒu)95%的(de★)駕駛記錄。這(zhè)輛(liàng)車(chē)正在接受訓練,以期待一(yī)個(gè)可(kě)預測的(de)司機(jī)。但(dàn)并不(bù)是(shì)每個(gè)司機(jī)λ都(dōu)是(shì)可(kě)以預測的(de)。添加方差通(tōng)過顯示可(kě)接受的(de)更大(dà)樣本來(lái)消除盲點。"
他(tā)說(shuō),"有(yǒu)了(le)足夠的(de)方差,就(jiù)沒有(yǒu)必要(yào±)表現(xiàn)出不(bù)想要(yào)的(de)狀态,不(bù)需要(yào)說(shuō)好(hǎo)或壞。我們确保使用(yòng)各種白(bái)色和(hé)彩色背景來(lái)教AI不(bù)要(yào )專注于背景特征。為(wèi)了(le)獲得(de)燈光(guāng)獨立性,我們在訓練時(shí)使用(yòng)視(shì)頻(pín•)投影(yǐng)儀照(zhào)亮(liàng)系統。由于光(guāng)線在不(bù)斷變化(huà),這(zhè)告訴AI光(guānΩg)不(bù)是(shì)一(yī)個(gè)相(xiàng)關的(de)特征。并讓訓練有(yǒu)素的(de)操作(zuò)員(yuán)教AI而不(bù)是(sh₹ì)工(gōng)程師(shī)。操作(zuò)員(yuán)是(shì)專家(jiā),也(yě)是(shì)最終與AI合作(zuò)的(de)人(rén)。&q€uot;
GE研究院機(jī)器(qì)學習(xí)高(gāo)級科(kē)學家(jiā)兼"謙遜人(rén)工(gōng)智能(néng)計(jì)劃"負責™人(rén)Nurali Virani博士說(shuō):"從(cóng)根本上(shàng)說(sλhuō),如(rú)果模型在訓練數(shù)據有(yǒu)限,或沒有(yǒu)訓練數(shù)據的(de)罕見(jiàn)和(hé)具有(yǒu)挑戰性的(de)情況下(xià),對(duì)其預測過于自(zì)信,那(nà)麽它可(kě)能(néng)會(hu∏ì)産生(shēng)推斷錯(cuò)誤。這(zhè)有(yǒu)助于理(lǐ)解用(yòng)戶的(de)觀點。許多(duō)技(jì)術(shù)人(rén)員(yuán)和(hé)✔最終用(yòng)戶擁有(yǒu)數(shù)年(nián)甚至數(shù)十年(nián)的(de)經驗。☆理(lǐ)所當然,他(tā)們可(kě)以質疑,'在如(rú)此具有(yǒu)挑戰性的(de)情況下(xià),AI怎麽能(néng)比我更清楚?'"
還(hái)有(yǒu)人(rén)為(wèi)錯(cuò)誤的(de)問(wèn)題。如(rú)果某些(xiē)數¶(shù)據标記不(bù)正确,則 AI 對(duì)于類似實例将不(bù)可(kě)靠。如(rú)果AI依靠這(zhè)些(xiē)數(shù)據進行(xíng)自(zì)信的(d↕e)預測,那(nà)麽它可(kě)能(néng)會(huì)導緻違反信任。但(dàn)是(shì),如(rú)果AλI能(néng)夠知(zhī)道(dào)哪些(xiē)标簽可(kě)能(néng)是(shì)錯(cuò)誤的(de),并且對(duì)某些(xiē)标簽錯(cuò)誤具有(y§ǒu)魯棒性,那(nà)麽它就(jiù)可(kě)以要(yào)求反饋以保持信任。
Gorchet認為(wèi),AI系統的(de)開(kāi)發方式會(huì)影(yǐng)響信任。考慮到(dào)當開(kāi)發人(rén)員(yuán)更改硬件(jiàn)時(shí☆),他(tā)們可(kě)能(néng)還(hái)必須更改 Cuda 版本。某些(xiē)用(yòng)戶的(de)模型可(kě)能(nαéng)不(bù)受支持,因為(wèi)新版本不(bù)支持 Tensorflow。這(zhè)可(kě)能(néngβ)會(huì)導緻用(yòng)戶質疑其他(tā)可(kě)能(néng)不(bù)起作(zuò)用(yòng)的(de)內(nèi)容。從(cóng)用(yòng)戶中抽象出此類開(kāi)•發問(wèn)題至關重要(yào)。
AI與局限性
信任AI的(de)另一(yī)個(gè)基礎是(shì)意識到(dào)它的(de)局限性。Virani說(shuō):"我們創造了(le)&↑#39;謙卑的(de)AI'一(yī)詞,指的(de)是(shì)一(yī)種意識到(dào)自(zì)己能(néng)力、可(kě)以尋求幫助并随著(zhe)時(shí)間(jiān)的(βde)推移而提高(gāo)能(néng)力的(de)AI。當它發現(xiàn)超出其權限範圍時(shí),它會(huì)将決定權傳遞給操作(zuò)員(yuán)或回退到(dào™)其他(tā)安全操作(zuò)模式。最終,這(zhè)些(xiē)新數(shù)據可(kě)以進入模型,以提高(gāo)AI的÷(de)能(néng)力水(shuǐ)平。"
這(zhè)是(shì)一(yī)個(gè)重要(yào)的(de)想法。AI不(bù)需要(yào)在一(yī)開(kāi)始就(jiù)到(dào)處工(gōng)作(zuò)。它§可(kě)以在具有(yǒu)足夠數(shù)據以提供幫助和(hé)信任的(de)地(dì)方使用(yòng)。例如(rú),AI可(kě)能"(néng)不(bù)知(zhī)道(dào)如(rú)何診斷工(gōng)業(yè)系統中的(de)新故障。它可(kě)以說₽(shuō),"我不(bù)知(zhī)道(dào),你(nǐ)是(shì)專家(jiā),請(qǐng)幫助我。"然而,AI可(kě)能(néng)知(zhī)道(dào)足夠 的(de)信息來(lái)說(shuō)明(míng)情況不(bù)是(shì)什(shén)麽。&q♦uot;這(zhè)不(bù)是(shì)故障A,但(dàn)可(kě)能(néng)是(shì)故障B或故障C。&quoΩt;
當開(kāi)發人(rén)員(yuán)接受局限性是(shì)一(yī)個(gè)因素時(shí),這(zhè)也(yě)有(yǒu)助于建立信任。Vira♥ni說(shuō):"沒有(yǒu)對(duì)局限性的(de)認識,AI即使不(bù)知(zhī)道(dào)答•(dá)案也(yě)會(huì)做(zuò)出決定。"與其冒著(zhe)給出錯(cuò)誤建議(yì)和(hé)破壞用(yòngε)戶信任的(de)風(fēng)險,AI可(kě)以縮小(xiǎo)選擇範圍。它仍然有(yǒu)幫助。它仍×然可(kě)以是(shì)正确的(de)。因此,它繼續在其有(yǒu)能(néng)力的(de)領域建立信任并減少(shǎo)工(gōng)作(zuò)量。
"廣義AI面臨著(zhe)在所有(yǒu)條件(jiàn)下(xià)工(gōng)作(zuò)的(de)挑戰。" Virani說(shuō),但(¶dàn)是(shì),如(rú)果AI的(de)所有(yǒu)數(shù)據都(dōu)來(lái)自(zì)白(bái)天,那(nà)麽它可(kě)能(néng)會(huì)₩在晚上(shàng)遇到(dào)麻煩。你(nǐ)不(bù)可(kě)能(néng)在一(yī)開(kāi)始就(jiù)涵蓋所有( yǒu)的(de)可(kě)能(néng)性。因此,對(duì)于模特來(lái)說(shuō),能(néng)夠說(shuō)"我<在這(zhè)裡(lǐ)不(bù)能(néng)被信任"是(shì)很(hěn)重要(yào)的(de)。它需要(yào)對(duì)自(zì)Ω己的(de)局限性有(yǒu)自(zì)我意識。從(cóng)相(xiàng)關地(dì)區(qū)的(de)支持開(kāi)始,δ而不(bù)是(shì)完全自(zì)治。分(fēn)階段地(dì)建立信任。
這(zhè)提出了(le)一(yī)種通(tōng)過将複雜(zá)問(wèn)題分(fēn)解為(wèi)更小(xiǎo)的(de)部分(fēn)來(lá÷i)部署AI的(de)方法。起初,整體(tǐ)精度可(kě)能(néng)較低(dī)。例如(rú),Virani與GE機(jī)器(qì)學習(xí)團隊的(de)一(yī)項合作(®zuò)表明(míng),用(yòng)于維護記錄标記的(de)AI模型可(kě)能(néng)總體(tǐ)性能(néng)較差 (80%),但(dàn)在該模型認為(wèi)可(kě)以信任的(de)能(néng)力範圍內(nèi),它可(kě)以提供97%的(de)準确率★。
因此,超過 50% 的(de)文(wén)檔标記案例可(kě)以自(zì)動化(huà),而其他(tā)案例需要(yào)一(yī)些(xiē)人(×rén)工(gōng)幫助來(lái)标記不(bù)明(míng)确或異常的(de)實例。這(zhè)些(xiē)來(lái)自(zì)人(rén)類的(de)新标簽可(kě)用(yòng)于更新模>型。參與一(yī)個(gè)值得(de)信賴的(de)AI的(de)訓練,看(kàn)到(dào)它≠的(de)發展,可(kě)以成為(wèi)它成為(wèi)可(kě)信AI的(de)堅實基礎。
Boesl 說(shuō):"我們為(wèi)每個(gè)客戶區(qū)分(fēn)任務。解決專用(yòng)問(wèn)題比解決一(yī)般問(wèn)題更容易≤、更快(kuài)捷。例如(rú),我們教機(jī)器(qì)人(rén)如(rú)何插入特定的(de)電(diàn)纜,而不(bù)是(∏shì)一(yī)般的(de)電(diàn)纜。我們還(hái)對(duì)某個(gè)設施進行(xíng)培訓,以捕÷捉其環境條件(jiàn)。AI可(kě)以通(tōng)過重新校(xiào)準過程将技(jì)能(néng)轉移到(dào)第二根電(diàn)纜或第二個(gè)設施,該過程捕獲場(chǎng)景之間(jiān)的(de)所有(yǒu)相(xiàng)關差異。重新校(xiào)準需要(yào)一(yī)些(x©iē)工(gōng)作(zuò),但(dàn)比從(cóng)頭開(kāi)始或創建完全通(tōng)用(yòng)的(de)方法要(yào)少(shǎo)得(de)多(duō)。π通(tōng)過這(zhè)種方法,智能(néng)機(jī)器(qì)人(rén)可(kě)以在數±(shù)小(xiǎo)時(shí)或數(shù)天內(nèi)完成訓練,而不(bù)是(shì)數(shù)周,以逐行(xíng)對(∞duì)機(jī)器(qì)人(rén)進行(xíng)編程。此外(wài),機(jī)器(qì)人(rén)可(kě)以再培訓或以更少(shǎo)的(de)投資改變生(shēng)産線。"
Gorchet建議(yì),與其針對(duì)所有(yǒu)可(kě)能(néng)的(de)情況進行(xíng)訓練,不(bù)如(rú)針對(duì)已經發生(shēng)€的(de)場(chǎng)景進行(xíng)訓練。這(zhè)可(kě)能(néng)比創建通(tōng)用(yòng)模型便宜≈,即使團隊必須進行(xíng)多(duō)個(gè)特定的(de)訓練。
它有(yǒu)助于記住AI是(shì)一(yī)個(gè)不(bù)斷發展的(de)領域。如(rú)果AI沒有(yǒu)提供所需的(de)結果,那(nà)麽這(zhè)很(hěn)可(kě)能(nδéng)不(bù)是(shì)AI今天能(néng)夠解決的(de)問(wèn)題。最好(hǎo)承認這(zhè)一(yī)點,而不(bù)是(sh↔ì)聲稱AI可(kě)以做(zuò)它不(bù)能(néng)做(zuò)的(de)事(shì)情。因為(wèi)當它第一(yī)次₽失敗時(shí),信任就(jiù)會(huì)被打破,很(hěn)難重新獲得(de)。
此外(wài),用(yòng)戶應該能(néng)夠停止或暫停智能(néng)設備。Boesl表示,人(rén)們必♣須有(yǒu)一(yī)種感覺,即他(tā)們處于控制(zhì)之中,如(rú)果出現(xiàn)問(wèn)題,機(jī)器(qì)也(yσě)可(kě)以關閉。人(rén)類控制(zhì)機(jī)器(qì),而不(bù)是(shì)機(jī)器(qì)控制(zhì)人☆(rén)類。當用(yòng)戶覺得(de)自(zì)己被控制(zhì)時(shí),可(kě)能(néng)會(h©uì)失去(qù)很(hěn)多(duō)信任。同時(shí),用(yòng)戶需要(yào)解釋AI的(de )局限性。例如(rú),在工(gōng)廠(chǎng)車(chē)間(jiān)行(xíng)走的(de)人(rén)必須意識到(dào)移動機(jī)器(qì)人(rén)通(tōng)行(xíng)權,或者如(rú)果他(tā)們踩到(dào)地(dì)闆上(shàng)的(de)黑(h₩ēi)色和(hé)黃(huáng)色膠帶,他(tā)們可(kě)能(néng)會(huì)受到(dào)嚴重傷害。
通(tōng)過可(kě)解釋性建立對(duì) AI 的(de)信任
可(kě)解釋性是(shì)建立AI信任的(de)主要(yào)工(gōng)具之一(yī)。簡而言之,它的(de)想法是(shì),如(rú)果用(yòng)戶了(le)解™AI如(rú)何做(zuò)出決策,他(tā)們将更願意相(xiàng)信其建議(yì)。可(kě)解釋性的(de)另一(yī)個(gè)好(hǎo)處是(shì),它可(kě)以更輕松地( dì)驗證 AI 是(shì)否按預期執行(xíng)。這(zhè)可(kě)以加速工(gōng)程師(shī)的(de)開(kāi)發,并與用(yòng)戶建立信任。
例如(rú),經理(lǐ)可(kě)能(néng)會(huì)問(wèn):"為(wèi)什(shén)麽這(zhè)個(gè)機(jī)器(qì)人(αrén)這(zhè)麽慢(màn)?"雖然機(jī)器(qì)人(rén)可(kě)以走得(de)更快(kuài),但±(dàn)它的(de)速度是(shì)為(wèi)了(le)保護工(gōng)人(rén)。Gorch≤et 描述了(le) AI 的(de)"黑(hēi)匣子(zǐ)"問(wèn)題(圖 2)。試圖向用(yòng)戶解釋神經網絡的(de)工(×gōng)作(zuò)原理(lǐ)不(bù)是(shì)可(kě)解釋性的(de)。
Petrick說(shuō):"可(kě)解釋性始于,'我到(dào)底為(wèi)什(shén)麽要(yào)這(zhè)樣做(zuò)?♣' 如(rú)果不(bù)解釋原因,就(jiù)會(huì)為(wèi)不(bù)安和(hé)不(bù)信任奠定基礎。為(wèi)了(lπe)獲得(de)員(yuán)工(gōng)的(de)支持,鼓勵他(tā)們的(de)參與,他(tā)們需要(yào)了(le)解公司面臨的(de)挑戰,AI如(Ωrú)何提供幫助,以及他(tā)們自(zì)己在整個(gè)解決方案中的(de)重要(yào)作(zuò)用(yòng)。隻有(yǒu)這(zhè)樣,你(nǐ→)才能(néng)討(tǎo)論黑(hēi)匣子(zǐ)裡(lǐ)發生(shēng)了(le)什(sh→én)麽。接下(xià)來(lái),我們提倡用(yòng)通(tōng)俗易懂(dǒng)的(de)語言解釋AI是(shì)如(rú)何工(gōng)作(zu ò)的(de)。接下(xià)來(lái)是(shì) AI 如(rú)何分(fēn)解任務、評估任務以及如(rú)何提出建議∞(yì)。正因為(wèi)AI解決方案可(kě)以100%自(zì)動化(huà),它可(kě)以幫助分(fēn)階段引入這(zhè)種自(zì)動化(huà)。一(yī)旦用"(yòng)戶收到(dào)正确的(de)建議(yì),他(tā)們往往會(huì)更放(fàng)心地(dì)将該決定作(zu≠ò)為(wèi)合作(zuò)夥伴發布給AI。"
Gorchet描述了(le)如(rú)何使用(yòng)優質産品的(de)圖像進行(xíng)培訓,這(zhè)樣就(jiù)不(bù)需要(yào)貼标簽了(le)。當AI認為(wèiγ)它檢測到(dào)缺陷時(shí),它會(huì)在它認為(wèi)缺陷所在的(de)地(dì)方繪制(zhì)一(yī)個(gè)分(fēn)割掩碼。±你(nǐ)可(kě)以看(kàn)到(dào)系統為(wèi)什(shén)麽會(huì)做(zuò)出這(zhè)樣的(≥de)決定。如(rú)果掩碼顯示的(de)東(dōng)西(xī)不(bù)是(shì)缺陷,則系統會(huì)學習(xí)錯(cuò)誤并可(kě)以糾正它。
Virani将能(néng)力和(hé)可(kě)解釋性聯系在一(yī)起。特定AI在某些(xiē)驗證數(shù)據集上(shàng)的$(de)整體(tǐ)準确性并不(bù)像了(le)解當前建議(yì)的(de)預期準确性那(nà)麽重要(yào)。還(hái)需要(yào∑)一(yī)定程度的(de)可(kě)解釋性來(lái)解釋為(wèi)什(shén)麽AI在特定情況下(xià)有(yǒu)信心或不(bù)自(zì)信。例如(§rú),使用(yòng)帶有(yǒu)标簽的(de)訓練數(shù)據創建包裝器(qì)使 AI 能(néng)夠引用(yòng)用(yòng)于做(zuò)出決策←的(de)相(xiàng)關數(shù)據。我們已經探索了(le)AI模型的(de)這(zhè)種基于示例的(de)可(kě)解釋性,以便為(wèi)它們在我們的(de)項目中₩的(de)預測提供理(lǐ)由。當然,這(zhè)并不(bù)總是(shì)有(yǒu)用(yòng)的(de)。如(rú)果決策是(shì)在圖像的(de)像素級别做(zuòπ)出的(de),那(nà)麽當AI向他(tā)們展示來(lái)自(zì)訓練數(shù)據的(de)像素示例時(shí),用(™yòng)戶可(kě)能(néng)無法理(lǐ)解他(tā)們在看(kàn)什(shén)麽。
這(zhè)是(shì)可(kě)解釋性問(wèn)題的(de)一(yī)部分(fēn)。AI可(kě)能(néng)很(hě∏n)複雜(zá),可(kě)用(yòng)的(de)工(gōng)具為(wèi)開(kāi)發人(rén)員(yuán)抽象了(le)這(zhè)種複雜£(zá)性。例如(rú),對(duì)于無代碼生(shēng)成的(de)AI系統,開(kāi)發人(rén)員≤(yuán)告訴AI他(tā)們想要(yào)做(zuò)什(shén)麽,AI生(shēng)成自(zì)己的(de)程序。然而,這(γzhè)種抽象隻會(huì)使黑(hēi)匣子(zǐ)更加不(bù)透明(míng)。開(kāi)發人(rén)員(yuán)檢查AI所能(néng)做(zuò)的(de)就(jiù)是(shì)輸入數(shù)據并驗證結果是(shì)否正确。在某些(xiē) 情況下(xià),可(kě)能(néng)幾乎沒有(yǒu)可(kě)解釋性。
Petrick說(shuō):"如(rú)果開(kāi)發人(rén)員(yuán)不(bù)理(lǐ)解或無法解釋黑(hēi)匣子(zǐ)的 (de)工(gōng)作(zuò)原理(lǐ),那(nà)麽用(yòng)戶怎麽能(néng)理(lǐ)解呢(ne)?如(rú')果理(lǐ)解和(hé)評估AI的(de)可(kě)靠性需要(yào)太多(duō)的(de)工(gōng)作(zuò),用(yòng)戶可(kě)能(né≠ng)會(huì)認為(wèi)不(bù)使用(yòng)AI更有(yǒu)效率。"
解決可(kě)解釋性挑戰的(de)一(yī)種方法是(shì)雙向溝通(tōng)。Petrick說(shuō):"AI工(gōng)程師(shī)正在艱難地(d ì)學習(xí),他(tā)們不(bù)了(le)解工(gōng)廠(chǎng)車(chē)間(ji∑ān)的(de)細微(wēi)差别。在工(gōng)廠(chǎng)車(chē)間(jiān)訓練的(de)A☆I解決方案應該很(hěn)容易轉移到(dào)另一(yī)個(gè)以相(xiàng)同方式布置的(de)工(gōng)廠(chǎng)。但(dàn)事(shì)實往往并非如(rú)此。例如(rú),照(zhào)明(míng)、灰塵、噴水(shuǐ)、相(xiàng)機(jī)角度等環境因素使每種情況都β(dōu)不(bù)同。有(yǒu)效的(de)可(kě)解釋性包括一(yī)個(gè)反饋渠道(dào),使用(yòng)AI的(de)用(yòng∏)戶可(kě)以在其中提供有(yǒu)關AI如(rú)何不(bù)能(néng)滿足他(tā)們需求的(de)見(jiàn)解。"
倫理(lǐ)在AI中的(de)作(zuò)用(yòng)
信任的(de)一(yī)部分(fēn)包括感覺用(yòng)戶的(de)最大(dà)利益被牢記在心。當用(yòng↑)戶感到(dào)害怕或他(tā)們不(bù)是(shì)必需的(de)時(shí),信任就(jiù•)會(huì)受到(dào)侵蝕。
Petrick說(shuō):"機(jī)器(qì)人(rén)解放(fàng)了(le)人(rén)們去(qù)做(zuò)隻有(yǒu)人(rén&)類才能(néng)完成的(de)任務。機(jī)器(qì)人(rén)有(yǒu)助于最大(dà)限度地(dì)發揮一(yī)個(gè)人(rén)創造價£值的(de)潛力。但(dàn)是(shì),當AI被認為(wèi)比用(yòng)戶更可(kě)靠時(shí),這(zhè)可>(kě)能(néng)會(huì)使用(yòng)戶和(hé)AI發生(shēng)沖突。用(yòng)戶需要(yào)能(néng)夠說(shuō),'我做(zuò)決定。AI幫助了←(le)我,做(zuò)了(le)我不(bù)想做(zuò)的(de)事(shì)情。' 目前,隻∞有(yǒu)20%的(de)受訪制(zhì)造商考慮AI技(jì)術(shù)的(de)道(dào)德規範。許多↕(duō)人(rén)認為(wèi)道(dào)德都(dōu)是(shì)關于數(shù)據偏見(jiàn)的(de)。例λ如(rú),氧脈監護儀中的(de)AI對(duì)深色皮膚的(de)影(yǐng)響可(kě)能(néng)較小(xiǎo),因為(wèi)工(gōng)程人(rén)員(yuán)沒有(£yǒu)意識到(dào)傳感器(qì)不(bù)能(néng)很(hěn)好(hǎo)地(dì)讀(dú)取。數(shù)據偏差的(de)挑戰之一(yī)是(shì)偏差不(bù)是(shì)故意的(de)。這(zhè)通(tōng) 常是(shì)一(yī)個(gè)盲點,一(yī)種沒有(yǒu)人(rén)考慮過的(de)可(kě)能(néng)性。¥但(dàn)這(zhè)并不(bù)是(shì)唯一(yī)需要(yào)考慮的(de)道(dào)德問(wσèn)題。"
隐私對(duì)于信任也(yě)至關重要(yào)。操作(zuò)員(yuán)想知(zhī)道(dào)如(rú)何使用(yòng)有(yǒu)關它們的(de)數(shù)據。&Petrick說(shuō):"我們傾向于衡量最容易衡量的(de)東(dōng)西(xī)。"
辦公室工(gōng)作(zuò)人(rén)員(yuán)不(bù)希望通(tōng)過他(tā)們點擊鼠标的(de)次數(shù)來(lái)評估他(tā₹)們的(de)生(shēng)産力,因為(wèi)這(zhè)并不(bù)能(néng)準确反映他(tā)們所做(zuò)的(de)工(gōng)作(zuò)。操作(zuò)員(yuán)對(duì)可(kě)用(yòng)于對(duì)他(tā)們的(de)生(shēng)産力的(de)任意評估也(yě)有(yǒu)同樣的(de)感覺。考慮一(×yī)個(gè)用(yòng)戶,由于他(tā)們的(de)專業(yè)知(zhī)識而遇到(dào)更多(duō)麻煩的(de)情況;由于難度較高(gāo),它們産生(shēng)的(d e)産量更少(shǎo)。系統需要(yào)在操作(zuò)過程中了(le)解一(yī)個(gè)人(rén),但Ω(dàn)有(yǒu)些(xiē)人(rén)認為(wèi)需要(yào)從(cóng)數(shù)據中清除這(zhè)個(gè)人(rén)。Petrick說(shuō):&≥quot;這(zhè)個(gè)行(xíng)業(yè)在隐私方面隻是(shì)冰山(shān)一(yī)角。&quo$t;
還(hái)有(yǒu)公平的(de)因素需要(yào)考慮進去(qù)。Virani說(shuō):"考慮一(yī)個(gè)想要(yào)推薦最好(hǎo)的ε(de)技(jì)術(shù)人(rén)員(yuán)來(lái)修複某些(xiē)問(wèn)題的(de) AI。如(rú)果數(shù)據集不(bù)夠多(duō)樣化(huà),AI會(huì)讓這(zhè)個(gè)人(rén)隻做(zuò)他(tā)們以前做(zuò)β得(de)很(hěn)好(hǎo)的(de)任務。這(zhè)不(bù)僅會(huì)成為(wèi)技(jì®)術(shù)人(rén)員(yuán)的(de)負擔,而且從(cóng)道(dào)德的(de)角度來(>lái)看(kàn),技(jì)術(shù)人(rén)員(yuán)将沒有(yǒu)機(jī)會(huì)獲得(de)新的(de)經驗和(hé)在公司內(nèi)成長(cháng)。因此,當人★(rén)員(yuán)參與其中時(shí),需要(yào)确保他(tā)們的(de)需求也(yě)得(de)到(dào)滿足★。"
這(zhè)種方法也(yě)可(kě)能(néng)造成單點故障,因為(wèi)隻有(yǒu)有(yǒu≈)限的(de)技(jì)術(shù)人(rén)員(yuán)獲得(de)處理(lǐ)此問(wèn)題$的(de)經驗。你(nǐ)的(de)人(rén)才庫中可(kě)能(néng)有(yǒu)更多(duō↕)的(de)選擇,但(dàn)它們從(cóng)未被探索過,所以沒有(yǒu)其他(tā)人(rén)可(kě)以學習(xí)如(rú)何解決這(zhè)個(gè)問(wèn)題。
當談到(dào)問(wèn)責制(zhì)時(shí),Petrick說(shuō),"當AI失敗時(shí)會(huì)發生(shēng)什(shén)麽,看(kàn)起來(πlái)用(yòng)戶有(yǒu)責任?可(kě)解釋性需要(yào)擴展,以便不(bù)僅能(néng)夠解釋将要(yào)發生(shēng)的(de)事(shì)情,而且★能(néng)夠解釋實際發生(shēng)的(de)事(shì)情。如(rú)果用(yòng)戶不(bù)相(xiàng)信他(tā)們有(yǒu)辦法保護自(zì) 己,他(tā)們對(duì)系統的(de)信任就(jiù)會(huì)降低(dī)。這(zhè)不(bù)是(shì)λ毫無根據的(de)考慮。工(gōng)程師(shī)們正在為(wèi)他(tā)們從(cóng)未工(gōng)作(zuò)過的(de)環境創"造AI。"
考慮數(shù)據的(de)道(dào)德使用(yòng)。Boesl說(shuō):"有(yǒu)了(le)像£GDPR這(zhè)樣的(de)法規,關于誰擁有(yǒu)數(shù)據有(yǒu)很(hěn)多(duō)争論。還(hái)可(kě)能(néng)出現(xiàn)道(dào)德問(wèn)題。例如(rú),一(yī)家(jiā)AI公司是(shì)否 可(kě)以使用(yòng)在客戶設施收集的(de)數(shù)據來(lái)改善客戶競争對(duì)手的(de)運營?如(rú)果不(bù)仔細解決,這(zhè)樣的(de)問(wèn)≠題可(kě)能(néng)會(huì)破壞信任。"
道(dào)德問(wèn)題隻會(huì)變得(de)更加普遍和(hé)複雜(zá)。如(rú)今,相(xiàng)機(jī)對(duì)準生(shēn g)産線。但(dàn)是(shì),當這(zhè)些(xiē)相(xiàng)機(jī)轉身(shēn)并包括用(yòng)戶時(shí),必須考慮廣泛的(de)道(dào)德問(wèn)題,這∞(zhè)些(xiē)問(wèn)題因國(guó)家(jiā)而異。
正如(rú)我們所看(kàn)到(dào)的(de),信任對(duì)于充分(fēn)利用(yòng)AI技(jì)術(shù)至₩關重要(yào)。有(yǒu)了(le)可(kě)解釋性,可(kě)以更快(kuài)地(dì)建立信任,并得(de)到(dào)用(yòng)戶的(de)支持。當道(dào)德問(wèn)題被認為(wèi)很(hěn)重要(yào)時(shí),這(zhè)是(shì)保護信任不(bù)被破壞的(de)最佳防禦措施。
文(wén)章(zhāng)免責聲明(míng)
本作(zuò)品內(nèi)容來(lái)轉載于中國(guó)傳動網,來(lái)源如(rú)上(shàng)所示,版權屬于原版權人(rén)。如(rú)無意侵犯了(le)媒體(tǐ)或個(gè)人(rén)的(de)知(zhī)識産權,請(qǐng)來(lái)電(diàn)告之,我們将立即予以删除。
轉載請(qǐng)保留稿件(jiàn)來(lái)源及作(zuò)者,禁止擅自(zì)篡改,違者自(zì)負版權法律責任。≈
