圖源:Unsplash
面向全球數(shù)學愛好者和科研機構,計劃于年內(nèi)推出
據(jù)了解,學而思正在進行自研數(shù)學大模型的研發(fā),命名為MathGPT,面向全球數(shù)學愛好者和科研機構,以數(shù)學領域的解題和講題算法為核心,目前已經(jīng)取得階段性成果,并將于年內(nèi)推出基于該自研大模型的產(chǎn)品級應用。
據(jù)悉,學而思已將MathGPT作為公司核心項目,由CTO田密負責,今年春節(jié)前,該項目已經(jīng)啟動相應的團隊建設、數(shù)據(jù)、算力準備和技術研發(fā)。此外,學而思已經(jīng)啟動在美國硅谷的團隊建設,將成立一支海外算法和工程團隊,在全球范圍內(nèi)招募優(yōu)秀的人工智能專家加入。
MathGPT與大語言模型(LLM)的差異
美國OpenAI公司在今年三月份發(fā)布了大語言模型GPT-4,國內(nèi)百度、阿里也發(fā)布了各自的大模型產(chǎn)品,但通用語言模型更像一個“文科生”,在語言翻譯、摘要、理解和生成等任務上有出色表現(xiàn),在數(shù)學問題的解決、講解、問答和推薦方面則存在明顯不足:解答數(shù)學問題經(jīng)常出錯,有些數(shù)學問題雖然能夠解決,但方法更偏成年人,無法針對適齡孩子的知識結構和認知水平做適配。
“這種不足是由LLM模型的自身特點決定的。”學而思AI團隊負責人介紹,LLM大模型來自對海量語言文本的訓練,因此最擅長語言處理。行業(yè)內(nèi)偏向基于LLM大模型做閱讀、寫作類應用,但如果想要在數(shù)學能力上有突破,就需要研發(fā)新的大模型。因此,學而思決心組建團隊專研MathGPT——數(shù)學領域大模型,用自己在數(shù)學和AI上的多年積累,面向全球范圍內(nèi)的數(shù)學愛好者和科研機構,做好AI大模型時代的數(shù)學基礎工作。
學而思希望通過MathGPT彌補和攻克大語言模型的三個問題:第一,題目要解對,現(xiàn)在GPT結果經(jīng)常出現(xiàn)錯誤;第二,解題步驟要穩(wěn)定、清晰,現(xiàn)在GPT的解題步驟每次都不一樣,而且生成內(nèi)容經(jīng)常很冗余;第三,解題要講的有趣、個性化,現(xiàn)在GPT的解釋過于“學術”和機械,對孩子的學習體驗很不友好。
做MathGPT,學而思憑什么
學而思作為獲國家科技部批準的“智慧教育國家新一代人工智能開放創(chuàng)新平臺”建設單位,也是教育行業(yè)唯一一家人工智能“國家隊”成員,在人工智能領域有著多年的深入研究,早在2017年,學而思便成立了AI lab 人工智能實驗室。
據(jù)公開信息顯示,基于智慧教育人工智能開放創(chuàng)新平臺助力,學而思AI lab獲得各類頂級學術會議比賽冠軍16項,亞軍6項;發(fā)表國際期刊和會議高水平學術論文31篇,包含光學字符識別、圖像、自然語言處理、語音以及多模態(tài)等多領域的學術研究,在計算機視覺頂會以及自然語言頂會中均有多篇論文發(fā)表;申請專利220余項,授權專利150余項,軟件著作權60余項。
學而思AI lab在各類頂級學術會議比賽獲獎情況
“以數(shù)學起家”的學而思至今已有20年的數(shù)學教學經(jīng)驗,積累了龐大的數(shù)學相關數(shù)據(jù),這些數(shù)據(jù)是進行MathGPT訓練的必備物料。另外,學而思的海外業(yè)務Think Academy在全球若干國家和地區(qū)深受數(shù)學愛好者喜歡,學而思的學生在每年的IMO和AMC等國際數(shù)學競賽中表現(xiàn)優(yōu)異,每年都有多位學生在國際奧林匹克數(shù)學競賽中拿到金牌。所以,學而思選擇在MathGPT方向發(fā)力也順理成章。
另據(jù)了解,學而思學習機近期將會上線一款“AI助手”,涵蓋作文助手、口語助手、閱讀助手、數(shù)學助手等相關功能,該AI產(chǎn)品將于5月11日開啟內(nèi)測。
MathGPT的挑戰(zhàn)和技術難題
如何利用大語言模型服務各行各業(yè)是當下社會的焦點問題。比如在教育領域,Duolingo、Quizlet、可汗學院等產(chǎn)品主要和OpenAI合作,在GPT大模型上做微調和接口調用,增強原有的產(chǎn)品體驗。但也有一些領域如數(shù)學、醫(yī)學等,對AI的需求是準確、清晰、具備強大的邏輯推理能力,且容錯率低,通用LLM目前的性能表現(xiàn)還無法在上述領域取得突破,未來是否可能取得突破尚不清晰。
以數(shù)學領域為例,目前市場上有幾個主要流派。比如Google收購的Photomath、微軟數(shù)學、Mathway、專注數(shù)學計算的WolframAlpha等產(chǎn)品,主要利用非LLM的傳統(tǒng)AI技術加上數(shù)據(jù)庫的方式解決數(shù)學問題。走AGI路線的公司則嘗試讓通用LLM“更懂數(shù)學”,比如GPT4在數(shù)學任務上比之前的3.5版本性能更好,谷歌旗下的Minerva模型也專門針對數(shù)學問題進行調優(yōu)。學而思選擇了另一條少有人走的路,不基于現(xiàn)有LLM做微調和接口調用、不做通用LLM,而是自研基于專業(yè)領域的“數(shù)學大模型”MathGPT,致力于打造自主、穩(wěn)定、可持續(xù)、高質量的學習解決方案。
在大語言模型不斷進化的浪潮下,不同的技術路線選擇孰優(yōu)孰劣,仍有待討論和驗證。學而思自研獨立的MathGPT大模型是否成立,是否能夠超越通用模型在數(shù)學任務上的表現(xiàn),是否更匹配不同人群的數(shù)學學習場景,這個問題還需要在創(chuàng)新實踐中尋找答案。隨著整個行業(yè)的深化發(fā)展和越來越多人才參與到這個領域,相信不久的將來就能看到更為成熟的解決方案。
2、芥末堆不接受通過公關費、車馬費等任何形式發(fā)布失實文章,只呈現(xiàn)有價值的內(nèi)容給讀者;
3、如果你也從事教育,并希望被芥末堆報道,請您 填寫信息告訴我們。