芥末堆芥末堆

用AI技術(shù)防止幼兒園虐待兒童,中國(guó)研究員研發(fā)視頻流分析模型

作者:弗格森 發(fā)布時(shí)間:

用AI技術(shù)防止幼兒園虐待兒童,中國(guó)研究員研發(fā)視頻流分析模型

作者:弗格森 發(fā)布時(shí)間:

摘要:中國(guó)的一個(gè)研究小組正準(zhǔn)備推出一個(gè)人工智能系統(tǒng),旨在實(shí)時(shí)捕捉幼兒園中的虐待兒童行為。

pexels-photo-256219.jpeg

圖片來(lái)源:Pexels

本文轉(zhuǎn)自微信公眾號(hào)“新智元”(ID:AI_era)。

中國(guó)的一個(gè)研究小組正準(zhǔn)備推出一個(gè)人工智能系統(tǒng),旨在實(shí)時(shí)捕捉幼兒園中的虐待兒童行為。研究人員說(shuō),他們的人工智能算法可以分析一個(gè)實(shí)時(shí)視頻流來(lái)跟蹤每個(gè)學(xué)生和老師的動(dòng)作。

中國(guó)的一個(gè)研究小組正準(zhǔn)備推出一個(gè)人工智能系統(tǒng),旨在實(shí)時(shí)捕捉幼兒園中的虐待兒童行為。

這項(xiàng)研究已經(jīng)進(jìn)行了好幾年,但是最近北京紅黃藍(lán)幼兒園被指控虐待兒童的事件引起了對(duì)這一個(gè)研究的激烈討論。

中國(guó)的大多數(shù)幼兒園都在教室安裝了監(jiān)控?cái)z像頭,但是很多監(jiān)控?cái)z像頭沒(méi)有得到有效的監(jiān)控。研究人員說(shuō),他們的人工智能算法可以分析一個(gè)實(shí)時(shí)視頻流來(lái)跟蹤每個(gè)學(xué)生和老師的動(dòng)作。

當(dāng)發(fā)現(xiàn)異常行為(如打耳光)時(shí),電腦可以通過(guò)把剪輯下來(lái)的視頻發(fā)送給幼兒園的管理人員,政府監(jiān)管機(jī)構(gòu)或家長(zhǎng),發(fā)出警報(bào),以供評(píng)估。

研究人員正在對(duì)該技術(shù)進(jìn)行廣泛的測(cè)試,并期望在明年完成原型。

貴州民族大學(xué)計(jì)算機(jī)科學(xué)副教授,該項(xiàng)目的首席科學(xué)家Rao Yan說(shuō),從2013年開(kāi)始研究以來(lái),她的團(tuán)隊(duì)遇到了技術(shù)障礙和資金短缺問(wèn)題。她表示:“這就是所謂研究中的次要領(lǐng)域,沒(méi)有吸引到太多的資金和關(guān)注度。”

雖然中國(guó)近年來(lái)在人工智能方面投入了大量資金,但大多數(shù)視頻分析系統(tǒng)目前在僅僅在國(guó)防安全領(lǐng)域,包括國(guó)防和反恐活動(dòng)中使用。

但是,作為一個(gè)年幼的孩子的母親,Rao說(shuō),她覺(jué)得有義務(wù)找到一個(gè)技術(shù)來(lái)解決防止虐待兒童的問(wèn)題。“不僅僅是我的小孩”,她說(shuō),“我們正在全國(guó)各地看到這個(gè)問(wèn)題?!?/p>

在中國(guó),許多幼兒園教師年輕而且收入不足,有些教師缺乏足夠的培訓(xùn)。

紅黃藍(lán)幼兒園只是近年來(lái)的一些幼兒園虐待案件之一,其中一些已經(jīng)被監(jiān)控?cái)z像頭發(fā)現(xiàn),引發(fā)了家長(zhǎng)們對(duì)安全隱患的擔(dān)憂,促使國(guó)務(wù)院對(duì)全國(guó)范圍內(nèi)的幼兒園進(jìn)行檢查。

于是 Rao和她的同事開(kāi)始研究,剛開(kāi)始,他們以為這將是一件容易的工作。有很多算法來(lái)檢測(cè)暴力,異?;颉隘偪瘛钡男袨?。但是他們很快發(fā)現(xiàn)現(xiàn)有的方法只適用于成年人。

“老師體型大,學(xué)生體型小。電腦在處理視頻時(shí)很容易跟丟”,Rao說(shuō)。孩子的行為也給機(jī)器造成了很大的困惑。他們可能會(huì)在椅子上跳起來(lái),用手中的玩具槍追逐對(duì)方,或者長(zhǎng)時(shí)間坐在角落里玩沙子。

所有這些活動(dòng)對(duì)于成年人來(lái)說(shuō)都是反常的,但是對(duì)于兒童來(lái)說(shuō)是正常的,所以使用為成年人開(kāi)發(fā)的AI工具來(lái)監(jiān)控兒童,你會(huì)發(fā)現(xiàn)機(jī)器在不斷發(fā)出警報(bào)。

所以Rao在幼兒園設(shè)置了一個(gè)新的機(jī)器學(xué)習(xí)算法。該團(tuán)隊(duì)從學(xué)前班收集了大量的監(jiān)控錄像,并將這些數(shù)據(jù)輸入電腦。開(kāi)始時(shí),研究人員不得不告訴機(jī)器哪種行為是正確的,哪些是錯(cuò)誤的,但后來(lái)電腦學(xué)會(huì)了正確評(píng)估鏡頭,幾乎不需要人為干預(yù)。

研究人員正在對(duì)來(lái)自幼兒園的新視頻進(jìn)行測(cè)試,他們希望明年能夠公開(kāi)展示這項(xiàng)技術(shù)。但Rao表示,這個(gè)系統(tǒng)還有很大的改進(jìn)空間?!斑@遠(yuǎn)非完美。我希望更多的研究人員可以加入這項(xiàng)工作,加速人工智能技術(shù)在打擊虐待兒童方面的應(yīng)用。

清華大學(xué)電子工程系教授Zhang Li說(shuō),他們和中國(guó)其他的頂級(jí)AI實(shí)驗(yàn)室很快會(huì)將資源轉(zhuǎn)移到解決防止兒童虐待的問(wèn)題。

Zhang表示,國(guó)內(nèi)許多機(jī)場(chǎng),火車站和公共場(chǎng)所已經(jīng)在使用這項(xiàng)技術(shù)來(lái)檢測(cè)異常行為,使用的方法有面部識(shí)別等等。

但是,要在幼兒園使用這一技術(shù),研究院需要獲得大量的數(shù)據(jù),這是一個(gè)難題,他說(shuō)。

“有些幼兒園可能不愿意分享數(shù)據(jù),因?yàn)檫@些視頻可能包含敏感信息。一些家長(zhǎng)也可能有隱私方面的擔(dān)憂,“Zhang說(shuō)。

北京中國(guó)科學(xué)院模式識(shí)別國(guó)家實(shí)驗(yàn)室研究員Huang Kaiqi表示,計(jì)算機(jī)可以通過(guò)跟蹤人體圖像中的每個(gè)像素來(lái)跟蹤移動(dòng)或手勢(shì),因此可以檢測(cè)到微小的行為,如兒童被扎針。

“虐待通常包含一系列的行為。這些行動(dòng)可以形成一個(gè)模式,可以通過(guò)機(jī)器學(xué)習(xí)和識(shí)別?!八f(shuō)。

Huang還表示,其他檢測(cè)方法如聲音和熱感應(yīng)也可以用來(lái)收集更多的信息,這樣行為跟蹤系統(tǒng)可以做出更準(zhǔn)確的判斷。

例如,如果孩子在教師采取某種行動(dòng)后反復(fù)哭泣,系統(tǒng)可能會(huì)發(fā)出警報(bào)。公安部負(fù)責(zé)全國(guó)監(jiān)視和報(bào)警系統(tǒng)的高級(jí)警官表示,將考慮在學(xué)校、包括幼兒園的安全系統(tǒng)中增加人工智能技術(shù)。

據(jù)官方人士透露,北京在2012年頒布了一項(xiàng)規(guī)定,要求所有學(xué)校都安裝安全攝像頭,但許多系統(tǒng)沒(méi)有專門的人員進(jìn)行監(jiān)控,硬盤通常只是被保存起來(lái)以備不時(shí)之需。

他說(shuō):“人工智能擁有一雙永不眨眼的眼睛,一個(gè)永不疲倦的頭腦?!钡a(bǔ)充說(shuō),單靠技術(shù)無(wú)法解決問(wèn)題,濫用仍然可能發(fā)生在安全攝像機(jī)的范圍之外。他說(shuō):“沒(méi)有任何技術(shù)可以充分保護(hù)我們的孩子?!?/p>

本文轉(zhuǎn)自微信公眾號(hào)“新智元”(ID:AI_era),來(lái)源:南華早報(bào),編譯:弗格森。

1、本文是 芥末堆網(wǎng)轉(zhuǎn)載文章,原文:新智元
2、芥末堆不接受通過(guò)公關(guān)費(fèi)、車馬費(fèi)等任何形式發(fā)布失實(shí)文章,只呈現(xiàn)有價(jià)值的內(nèi)容給讀者;
3、如果你也從事教育,并希望被芥末堆報(bào)道,請(qǐng)您 填寫(xiě)信息告訴我們。
來(lái)源:新智元
芥末堆商務(wù)合作:王老師 18710003484
  • 用AI技術(shù)防止幼兒園虐待兒童,中國(guó)研究員研發(fā)視頻流分析模型分享二維碼