芥末堆芥末堆

【芥末翻】AI技術(shù)是“潘多拉盒子”?探討AI教育的倫理問題

作者:芥末翻 發(fā)布時(shí)間:

【芥末翻】AI技術(shù)是“潘多拉盒子”?探討AI教育的倫理問題

作者:芥末翻 發(fā)布時(shí)間:

摘要:如果Ai出錯(cuò),誰來承擔(dān)責(zé)任?

【芥末翻】是芥末堆全新推出的一檔學(xué)術(shù)欄目,由芥末堆海外翻譯社群的小伙伴們助力完成。我們致力于將全球經(jīng)典或是前沿的教育理念、教育技術(shù)、學(xué)習(xí)理論、實(shí)踐案例等文獻(xiàn)翻譯成中文,并希望能夠通過引進(jìn)這類優(yōu)質(zhì)教育研究成果,在全球教育科學(xué)的推動(dòng)下,讓更好的教育來得更快!

屏幕快照 2017-09-03 上午9.21.17.jpg本文選自培生集團(tuán)研究報(bào)告《Intelligence Unleashed :An argument for AI in Education》,作者 Rose Luckin,Wayne Holmes,譯者康琳,魏來,lilac,編輯阿槑。

編者注:過去五周,芥末翻連載了培生AI+教育的研究報(bào)告,在肯定人工智能的優(yōu)勢和巨大潛力的同時(shí),報(bào)告提出了一些有爭議的話題,包括人工智能與人類和真實(shí)世界的關(guān)系,人工智能在道德倫理上面臨的挑戰(zhàn)等,這些問題引發(fā)了一些列擔(dān)憂。

AI 會(huì)取代人類嗎?

一些科學(xué)界人士擔(dān)心AI是個(gè)“潘多拉盒子”,會(huì)導(dǎo)致危險(xiǎn)的后果。早在1993年,計(jì)算機(jī)科學(xué)家Vernon Vinge推廣了技術(shù)新概念: AI驅(qū)動(dòng)的計(jì)算機(jī)或機(jī)器人能重新設(shè)計(jì)并改進(jìn)自身,或者能設(shè)計(jì)比自身更先進(jìn)的AI。自然有人認(rèn)為,這將導(dǎo)致AI超出人類智慧、理解和控制,從而導(dǎo)致人類時(shí)代的終結(jié)。近來,史蒂芬·霍金和其他權(quán)威科學(xué)家,包括Stuart Russell, Max Tegmark, 和 Frank Wilczek 同樣警告過,AI太過“聰明”的潛在后果。

這個(gè)令人憂慮的想法給好萊塢電影提供了素材,從60年代的《2001太空漫游》,到80年代的《終結(jié)者》系列及近期的《超驗(yàn)駭客》,所有電影都選擇描述各種失去控制的AI主導(dǎo)的反烏托邦世界。 

但在我們太過擔(dān)憂之前,需要說明一下人工智能當(dāng)前的水平。如果實(shí)現(xiàn),首先“全能AI”必須實(shí)現(xiàn)重大進(jìn)展,即可以AI機(jī)器人可以成功勝任所有人類勝任的智能任務(wù)。而現(xiàn)在,該AI技術(shù)根本還未實(shí)現(xiàn)。通用AI不同于我們大多數(shù)人熟悉的“領(lǐng)域特定AI”。這些領(lǐng)域特定AI專注于一件事情——例如,掌握國際象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、駕駛汽車(谷歌的自動(dòng)駕駛)、或護(hù)照照片人臉識(shí)別。即使是知名的AI倡導(dǎo)者也認(rèn)為,Vernon Vinge提出的新觀點(diǎn)在未來某天終會(huì)到來, 通常在他們寫出程序后的三十年左右。

然而,AI越來越發(fā)達(dá),它已經(jīng)對我們的經(jīng)濟(jì)產(chǎn)生了深遠(yuǎn)影響。在2013年的一項(xiàng)研究中,經(jīng)濟(jì)學(xué)家 Frey 和 Osborne 使用AI技術(shù)探索自動(dòng)化對職業(yè)影響的研究。基于他們的預(yù)測,美國職場上約47%的職位面臨極大的風(fēng)險(xiǎn),可能在接下來的十年或二十年將會(huì)被機(jī)器 取代。迄今為止,中等收入職位受到的影響最大,也體現(xiàn)了當(dāng)下最易受自動(dòng)化影響的工作內(nèi)容。

對于過去經(jīng)濟(jì)發(fā)展過程中出現(xiàn)的重大變革(例如,從農(nóng)業(yè)為主的經(jīng)濟(jì)轉(zhuǎn)變成工業(yè)經(jīng)濟(jì)),人們通過改變教育和學(xué)習(xí)的范圍和內(nèi)容逐漸適應(yīng)。這種觀點(diǎn)是,如果“工人有靈活的技能,如果教育基礎(chǔ)設(shè)施得到充分發(fā)展,那么...技術(shù)和教育之間的競爭沒有勝利者,成果將會(huì)被更多人共享”。

在快速發(fā)展的AI面前,這種方法是否適用值得商榷。歷史證明,技術(shù)的改變通常會(huì)帶來很多無法預(yù)料的新角色。而其他人,如Martin Ford認(rèn)為隨著自動(dòng)化承接越來越復(fù)雜的任務(wù),工作機(jī)會(huì)會(huì)減少,無法保持當(dāng)前的就業(yè)率。

AIEd的倫理問題

人工智能(AI)的發(fā)展正在加速,滲透到我們生活的每一方面。問題在于,我們是否已準(zhǔn)備好可控制的情況下讓此發(fā)生?正如牛津大學(xué)的哲學(xué)家 Nick Bostrum 所論述的,需特別謹(jǐn)慎地關(guān)注 AI 的倫理問題:“責(zé)任、透明性、可審計(jì)性、防破壞性、可預(yù)測性 (...);必須在旨在取代人類社會(huì)功能判斷的算法中考慮這些標(biāo)準(zhǔn)”。

例如,如果 AI“出錯(cuò)”(比如,可參見 2010 年金融界“閃電崩盤”事件中算法起到的作用)由誰來承擔(dān)責(zé)任,是最終用戶還是程序員?如果交通事故涉及自動(dòng)駕駛車輛,該怎么處理?能否知曉它是如何做出決定并對其進(jìn)行修正來防止問題的?如果 AI 使用的是神經(jīng)網(wǎng)絡(luò),這已變得非常困難。而且,AI 是否開放操控?我們都非常清楚電腦黑客行為的后果。如果出于犯罪目的開發(fā)或修改 AI,會(huì)發(fā)生什么?

對于 AIEd,同樣存在這些倫理問題。例如,我們知道共享數(shù)據(jù)對 AIEd 系統(tǒng)的集成至關(guān)重要,而且,匿名化數(shù)據(jù)的共享,通過削減浪費(fèi)、重復(fù)性工作,可促成該領(lǐng)域的飛躍式進(jìn)步。但這種共享帶來了從個(gè)人隱私到專有知識(shí)產(chǎn)權(quán)的大量問題。的確,AIEd 系統(tǒng)所生成的數(shù)據(jù)越來越多,同時(shí)更加多樣化,這讓現(xiàn)有的教育數(shù)據(jù)倫理問題風(fēng)險(xiǎn)加倍。AIEd 系統(tǒng)數(shù)據(jù)生成、分析、解釋和使用有什么影響意義?誰持有數(shù)據(jù)、誰可使用數(shù)據(jù),出于何種目的使用數(shù)據(jù)、誰負(fù)最終責(zé)任?

另一個(gè)需考慮的問題是,AIEd 旨在影響用戶的長期行為并對其進(jìn)行改變。例如,系統(tǒng)可作出建議、進(jìn)行勸說或提供反饋,使人機(jī)之間建立關(guān)系。行為改變毫無疑問是一種可能,但這仍沒有經(jīng)過嚴(yán)肅的倫理考慮。

其他擔(dān)憂則與學(xué)習(xí)伙伴相關(guān),雖然它們被設(shè)計(jì)出來的原意是支持學(xué)習(xí)者學(xué)習(xí),但恐怕 “跟隨”您的伙伴反而會(huì)永久性地記錄下學(xué)習(xí)失敗經(jīng)歷,不利于未來的發(fā)展。

同樣地,AIEd 教學(xué)輔助工具的概念也引發(fā)了擔(dān)憂:該技術(shù)是否會(huì)被教師用作課堂“間諜”來記錄和報(bào)告學(xué)生的不良表現(xiàn)?

因此,我們有責(zé)任確保社會(huì)能對 AIEd 有充足的認(rèn)識(shí),使我們以恰當(dāng)、有效和符合倫理的方式使用這些新技術(shù)。

AIEd與真實(shí)世界

很多時(shí)候,人工智能教育(AIEd)中的“仿真人工”一詞造成了該技術(shù)在某種程度上脫離我們真實(shí)生活的感覺。我們的觀點(diǎn)是,AIEd 本質(zhì)上是人類的真實(shí)嘗試,在其發(fā)展過程中,AIEd 將愈加依賴人類和實(shí)體環(huán)境,并由此變?yōu)閷W(xué)習(xí)過程不可分割的組成部分。

1、AIEd 將增強(qiáng)實(shí)體環(huán)境

增強(qiáng)現(xiàn)實(shí)(AR)系統(tǒng)能夠支持學(xué)習(xí)者和教師以不同的方式體驗(yàn)實(shí)體世界并與之交互, 從而比智能虛擬現(xiàn)實(shí)系統(tǒng)更進(jìn)一步。AR 技術(shù)可展示關(guān)于人環(huán)境信息的疊加層,使課堂內(nèi)容疊加到學(xué)習(xí)者的真實(shí)體驗(yàn)中。例如,學(xué)習(xí)者在周游世界過程中,周圍建筑物的年代、建筑風(fēng)格等都可以隨之變化。

我們已經(jīng)看到現(xiàn)有的 AIEd 系統(tǒng)如何以社交和文化智能,讓它們在虛擬環(huán)境中引導(dǎo)和支持學(xué)習(xí)者的。在 AR 系統(tǒng)中增加 AIEd 將促成個(gè)人化的自適應(yīng)教育體驗(yàn);其中虛擬導(dǎo)師引導(dǎo)學(xué)生進(jìn)行實(shí)地考察,而教師將注意力集中到需求最為強(qiáng)烈的學(xué)習(xí)者身上。

2、AIEd 將與萬物網(wǎng)相連

具備內(nèi)置計(jì)算系統(tǒng)、傳感器和網(wǎng)絡(luò)連接的物品及支撐網(wǎng)絡(luò)被統(tǒng)稱為“萬物網(wǎng)(IoT)”。IoT 使任何網(wǎng)絡(luò)支持的物體可與任何其他網(wǎng)絡(luò)支持的物體相互連接。這為 AIEd 系統(tǒng)開拓了新的可能性,例如,支持學(xué)習(xí)者形成需要較多一致性練習(xí)的運(yùn)動(dòng)技能,比如跳舞、演奏樂器、甚至是學(xué)習(xí)手術(shù)技能。

3、AIEd 將理解我們?nèi)绾胃杏X及運(yùn)動(dòng)

我們?nèi)绾胃杏X(情感)和我們?nèi)绾芜\(yùn)動(dòng)對學(xué)習(xí)有顯著的影響。最近的研究已支持這一觀點(diǎn)。這些深入的見解表明,可通過將這些額外信息納入考慮范圍進(jìn)而改進(jìn)學(xué)習(xí)技術(shù)?,F(xiàn)在,學(xué)習(xí)者模型已不再僅限于記錄和展現(xiàn)學(xué)習(xí)者的學(xué)業(yè)進(jìn)步情況,可佩戴在衣物中或綁在身體部位的傳感器(如Fitbit)已經(jīng)開發(fā)出來。

通過采集學(xué)習(xí)者情緒和生理狀態(tài)數(shù)據(jù)的復(fù)雜模型,未來的 AIEd 系統(tǒng)將更加支持學(xué)習(xí)者。這些得到完善的模型將進(jìn)一步促進(jìn)學(xué)習(xí)者的學(xué)習(xí),且將向單個(gè)教師提供關(guān)于學(xué)習(xí)者的生理和情緒健康狀態(tài),并支持其認(rèn)知發(fā)展的實(shí)時(shí)信息,使教師可以對學(xué)習(xí)者進(jìn)行恰當(dāng)及時(shí)的干預(yù)。 

教師與 AIEd

毫無疑問,在 AIEd 發(fā)展的下一個(gè)階段,老師將成為中心點(diǎn)。一方面,老師會(huì)成為協(xié)調(diào)者,決定何時(shí)以及如何使用AIEd 工具。同時(shí),AIED 也將提供工具和數(shù)據(jù)分析,支持老師更好地利用豐富多樣的教學(xué)資源。

不僅僅局限于此,老師、學(xué)生和家長應(yīng)當(dāng)在 AIED 教學(xué)工具的設(shè)計(jì)與使用方式上發(fā)揮重要作用。共同參與式的設(shè)計(jì)方式能夠確保產(chǎn)品滿足老師的需求,比如為現(xiàn)實(shí)中混亂的課堂提供支持,而不是技術(shù)或設(shè)計(jì)人員想象的需求。參與產(chǎn)品的設(shè)計(jì)與研發(fā)過程的老師也會(huì)有收獲,增強(qiáng)其對技術(shù),產(chǎn)品設(shè)計(jì),以及AIED 系統(tǒng)的理解。

如前所述,我們認(rèn)為,引入 AI 支持工具將促使老師進(jìn)行角色轉(zhuǎn)換。目前我們希望由老師承擔(dān)的部分工作將由 AIED系統(tǒng)完成,比如對學(xué)生的學(xué)習(xí)進(jìn)程做標(biāo)記和記錄。 AIED系統(tǒng)會(huì)把老師從日常耗費(fèi)大量時(shí)間的重復(fù)性工作中解放出來,把更多精力放在創(chuàng)造力、人文關(guān)懷上,使學(xué)生的學(xué)習(xí)更上一層樓。伴隨著這一轉(zhuǎn)變,教師也需要學(xué)習(xí)新的技能(可能是由 AIEd 系統(tǒng)提供的職業(yè)發(fā)展培訓(xùn))。他們將特別需要:

  • 深入理解并評(píng)估 AIED 系統(tǒng),正確判斷新的AIED產(chǎn)品的價(jià)值;

  • 提升研究能力,學(xué)會(huì)解讀數(shù)據(jù),從數(shù)據(jù)中發(fā)現(xiàn)問題,并幫助學(xué)生解決問題

  • 新的團(tuán)隊(duì)合作模式和管理能力,每個(gè)老師都會(huì)有虛擬的人工智能助手,“他們”負(fù)責(zé)有效管理資源。

>>前文請戳:培生AI教育報(bào)告:打開學(xué)習(xí)的“黑匣子”,我們?nèi)绾卫斫?AI+教育?

>>聲明

本翻譯僅作了解之用,并非用于學(xué)術(shù)研究或商業(yè)決策。芥末堆海外翻譯社群的小伙伴們力求將關(guān)鍵理念與思想更廣泛地傳播至中文區(qū)域,故部分表達(dá)可能與原文有所差異。如需使用,請查證原文

如果你對教育領(lǐng)域的學(xué)術(shù)研究及其應(yīng)用感興趣,歡迎掃描下方二維碼加入【芥末翻交流群】。

芥末翻.png

如果無法進(jìn)群,請找萬能的一丟(微信:eduerss)幫忙,記得備注芥末翻喲~

1、本文是 芥末堆網(wǎng)原創(chuàng)文章,轉(zhuǎn)載可點(diǎn)擊 芥末堆內(nèi)容合作 了解詳情,未經(jīng)授權(quán)拒絕一切形式轉(zhuǎn)載,違者必究;
2、芥末堆不接受通過公關(guān)費(fèi)、車馬費(fèi)等任何形式發(fā)布失實(shí)文章,只呈現(xiàn)有價(jià)值的內(nèi)容給讀者;
3、如果你也從事教育,并希望被芥末堆報(bào)道,請您 填寫信息告訴我們。
來源: 芥末堆
芥末堆商務(wù)合作:王老師 18710003484
  • 【芥末翻】AI技術(shù)是“潘多拉盒子”?探討AI教育的倫理問題分享二維碼