用AI來改試卷狗屁不通的論文也能評高分?
用AI來改試卷狗屁不通的論文也能評高分?根據(jù)調(diào)查顯示,以自然語言處理為基礎(chǔ)的人工智能論文評分系統(tǒng),至少已經(jīng)被美國的 21 個州正式引入到正式考試的評分工作當中。
而且,月圓的不僅僅只有國外,我國的「機器評卷員」也早已經(jīng)投入到考場中。
早在 2016 年,我國教育考試中心就和科大訊飛成立了聯(lián)合實驗室,共同開展人工智能技術(shù)在閱卷、命題、考試評價分析等方面的研究。而且在 2017 年,湖北襄陽就已經(jīng)正式在中考評卷工作中引入了該機器評分系統(tǒng)作為評分輔助手段。
這些機器評卷員的背后,有海量的資料作為參考,即使一天閱卷無數(shù),也并不會因為疲勞以及不愉悅的情緒影響閱卷的效率和公正。
但事實真的是這樣嗎?最近,VICE 的一份報道顯示,這些 AI 評卷員實際上并沒有大家想象中的公正。
無可避免的算法偏見
AI 評卷,其實也沒有大家想象中的那么公正。而首先第一個問題,就是算法偏見。
實際上,教育行業(yè)一直以來都在盡力消除對不同語言背景的學(xué)生所產(chǎn)生的潛意識偏見,但這個問題則在人工智能評卷系統(tǒng)上相當嚴重。
ETS(美國非營利性考試服務(wù)中心)所提供的 E-rater 機器評分系統(tǒng),目前正在為 GRE、TOEFL 等考試提供評分參考。而 ETS 也是眾多機器評分系統(tǒng)提供商中,極少數(shù)會提供偏差研究報告的。
ETS 新產(chǎn)品開發(fā)副總裁 David Williamson 表示:
其實評分系統(tǒng)存在算法偏見是一個普遍存在的問題,只不過大多數(shù)提供商都不會像我們這樣對外公開。
在多年的研究里,ETS 發(fā)現(xiàn)機器評分系統(tǒng)會「偏愛」來自中國大陸的學(xué)生,所給的分數(shù)整體會比人類評卷員要更高。與此同時,像非裔美國人、阿拉伯語學(xué)生、西班牙留學(xué)生等群體則更容易受到來自機器的偏見,所能得到的分數(shù)會更低一些。
為此,ETS 在 2018 年對算法進行了深入的研究,最終發(fā)現(xiàn)了原因。
以 GRE(美國研究生入學(xué)考試)為例,來自中國大陸的學(xué)生由于篇幅更長,且會在論文中使用大量復(fù)雜的詞匯,使得機器誤認為論文的水平會高于平均水準,從而給出更多的分數(shù)。即使這些復(fù)雜的句型在人類評卷員看來和論文的主旨并無太多關(guān)聯(lián),甚至明顯能看出是套用了預(yù)先背好的范文。
相反,由于非裔美國人、阿拉伯語留學(xué)生的語言風(fēng)格會更偏向于簡單和直接,導(dǎo)致在機器評分系統(tǒng)中很難獲得較高的分數(shù)。
這些偏見實際上也直接反應(yīng)在分數(shù)上,在測試時,一群水平相當?shù)膶W(xué)生當中,E-rater 機器評分系統(tǒng)為中國大陸的學(xué)生給出的平均分達 1.31 分,而非洲裔美國人則只有 0.81 分。
當然,如果有參與 GRE 的讀者也不用擔(dān)心,因為該系統(tǒng)目前也只是給人類評分員「打一下輔助」而已,最終的論文成績依舊是由人類來決定。
而除了 ETS 以外,新澤西理工學(xué)院也發(fā)現(xiàn)了自家所使用的一項機器評分系統(tǒng)存在著算法偏見。
新澤西理工學(xué)院此前通過一個名為 ACCUPLACER 的評分系統(tǒng)來判斷一年級學(xué)生是否需要額外的輔導(dǎo),但是后來經(jīng)過技術(shù)委員會的研究發(fā)現(xiàn),該系統(tǒng)對亞裔、西班牙裔學(xué)生所寫的論文會存在偏見,并不能很公正地給出判斷。
甚至「狗屁不通」的論文也能獲得高分
如果說算法偏見只是影響分數(shù)高低,對考試公正影響還不算特別大的話,那么機器評分系統(tǒng)還有一個更嚴重的缺陷。
就是連胡編亂造也識別不出來。
在幾年前,麻省理工學(xué)院的預(yù)科主任 Les Perelman 和一群學(xué)生利用論文語言生成器 BABEL 生拼硬湊出了數(shù)篇論文。
這幾篇論文與正常的論文不太一樣,雖然運用了很多高級詞匯,復(fù)雜句型,但當中大部分內(nèi)容都是前言不搭后語的,甚至可以用「狗屁不通」來形容。
他們將這幾篇論文提交給了幾個不同的機器評分系統(tǒng)進行評分,出乎意料的是,這幾篇論文都獲得了不錯的成績。
更讓人想不到的是,幾年后 VICE 也復(fù)制了該實驗,結(jié)果也和之前驚人地相似。新澤西理工大學(xué)教授 Elliot 對此表示:
目前的論文評分系統(tǒng)更加強調(diào)語法的準確性、書面語言的標準性。但是對于學(xué)生敏銳的觀點和特別的洞察卻很難發(fā)現(xiàn)出來。然而這兩點在人類評卷員看來,都是一篇論文最寶貴的地方。
目前,已經(jīng)有不少教育領(lǐng)域的相關(guān)人士對這些機器改卷員提出質(zhì)疑,而澳大利亞也已經(jīng)宣布暫時擱置在標準考試當中引入機器評分系統(tǒng)。
來自 AI Now 研究所的 Sarah Myers West 表示,與在更廣泛的人工智能應(yīng)用領(lǐng)域中一樣,想把算法偏見在評分系統(tǒng)中消除同樣是一場持久戰(zhàn)。
不過盡管如此,無論是來自新澤西理工大學(xué)教授的 Elliot 還是來自 AI Now 研究所的 Sarah Myers West,他們都還是發(fā)展機器評分系統(tǒng)的支持者。因為這確實是未來的一個發(fā)展方向,正如猶他州的考試發(fā)展評估員 Cydnee Carter 所說,通過機器對論文進行評估,不僅能為國家的教育系統(tǒng)省下大量的人力和物力,這項技術(shù)未來還能給學(xué)生和教師提供及時的學(xué)術(shù)反饋,極大地提高教育效率。
只不過在完全能做到公平公正之前,這些機器評卷員,還是只充當一個輔助的角色為妙。
2898站長資源平臺網(wǎng)站資訊:http://www.afrimangol.com/news/