大模型領(lǐng)域又來新玩家。
編者按:本文來自微信公眾號量子位(ID:QbitAI),創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載。
大模型領(lǐng)域又來新玩家。
(資料圖片)
據(jù)了解,學(xué)而思正在進(jìn)行自研數(shù)學(xué)大模型的研發(fā),命名為MathGPT。
面向全球數(shù)學(xué)愛好者和科研機構(gòu),以數(shù)學(xué)領(lǐng)域的解題和講題算法為核心。
目前已經(jīng)取得階段性成果,并將于年內(nèi)推出基于該自研大模型的產(chǎn)品級應(yīng)用。
據(jù)悉,學(xué)而思已將MathGPT作為公司核心項目,由CTO田密負(fù)責(zé)。
今年春節(jié)前,該項目已經(jīng)啟動相應(yīng)的團(tuán)隊建設(shè)、數(shù)據(jù)、算力準(zhǔn)備和技術(shù)研發(fā)。
此外,學(xué)而思已經(jīng)啟動在美國硅谷的團(tuán)隊建設(shè),將成立一支海外算法和工程團(tuán)隊,在全球范圍內(nèi)招募優(yōu)秀的人工智能專家加入。
MathGPT與大語言模型(LLM)的差異OpenAI在今年三月份發(fā)布了大語言模型GPT-4,國內(nèi)百度、阿里也發(fā)布了各自的大模型產(chǎn)品,但通用語言模型更像一個“文科生”,在語言翻譯、摘要、理解和生成等任務(wù)上有出色表現(xiàn),在數(shù)學(xué)問題的解決、講解、問答和推薦方面則存在明顯不足:
解答數(shù)學(xué)問題經(jīng)常出錯,有些數(shù)學(xué)問題雖然能夠解決,但方法更偏成年人,無法針對適齡孩子的知識結(jié)構(gòu)和認(rèn)知水平做適配。
“這種不足是由LLM模型的自身特點決定的?!?/p>
學(xué)而思AI團(tuán)隊負(fù)責(zé)人介紹,LLM大模型來自對海量語言文本的訓(xùn)練,因此最擅長語言處理。
行業(yè)內(nèi)偏向基于LLM大模型做閱讀、寫作類應(yīng)用,但如果想要在數(shù)學(xué)能力上有突破,就需要研發(fā)新的大模型。
因此,學(xué)而思決心組建團(tuán)隊專研MathGPT——數(shù)學(xué)領(lǐng)域大模型,用自己在數(shù)學(xué)和AI上的多年積累,面向全球范圍內(nèi)的數(shù)學(xué)愛好者和科研機構(gòu),做好AI大模型時代的數(shù)學(xué)基礎(chǔ)工作。
學(xué)而思希望通過MathGPT彌補和攻克大語言模型的三個問題:
第一,題目要解對,現(xiàn)在GPT結(jié)果經(jīng)常出現(xiàn)錯誤;
第二,解題步驟要穩(wěn)定、清晰,現(xiàn)在GPT的解題步驟每次都不一樣,而且生成內(nèi)容經(jīng)常很冗余;
第三,解題要講的有趣、個性化,現(xiàn)在GPT的解釋過于“學(xué)術(shù)”和機械,對孩子的學(xué)習(xí)體驗很不友好。
為了實現(xiàn)這些目標(biāo),MathGPT將結(jié)合大語言模型和計算引擎兩者的能力,大語言模型負(fù)責(zé)理解題目、分步解析,并在合適的步驟自行調(diào)用計算引擎,這樣能提高題目解答正確率。
基于海量名師解題過程的數(shù)據(jù)進(jìn)行模型訓(xùn)練,模型的解題步驟可以更加清晰。
再引入優(yōu)秀老師的教學(xué)理念和方法,模型在解題趣味性上也能進(jìn)一步提高。
據(jù)透露,MathGPT將先從中小學(xué)數(shù)學(xué)做起,逐步覆蓋全年齡學(xué)段和解題種類。
做MathGPT,學(xué)而思憑什么學(xué)而思作為獲國家科技部批準(zhǔn)的“智慧教育國家新一代人工智能開放創(chuàng)新平臺”建設(shè)單位,也是教育行業(yè)首批唯一一家人工智能“國家隊”成員,在人工智能領(lǐng)域有著多年的深入研究。
早在2017年,學(xué)而思便成立了AI lab 人工智能實驗室。
據(jù)公開信息顯示,基于智慧教育人工智能開放創(chuàng)新平臺助力,學(xué)而思AI lab獲得各類頂級學(xué)術(shù)會議比賽冠軍16項,亞軍6項;
發(fā)表國際期刊和會議高水平學(xué)術(shù)論文31篇,包含光學(xué)字符識別、圖像、自然語言處理、語音以及多模態(tài)等多領(lǐng)域的學(xué)術(shù)研究,在計算機視覺頂會以及自然語言頂會中均有多篇論文發(fā)表;
申請專利220余項,授權(quán)專利150余項,軟件著作權(quán)60余項。
“以數(shù)學(xué)起家”的學(xué)而思至今已有20年的數(shù)學(xué)教學(xué)經(jīng)驗,積累了龐大的數(shù)學(xué)相關(guān)數(shù)據(jù),這些數(shù)據(jù)是進(jìn)行MathGPT訓(xùn)練的必備物料。
另外,學(xué)而思的海外業(yè)務(wù)Think Academy在全球若干國家和地區(qū)深受數(shù)學(xué)愛好者喜歡,學(xué)而思的學(xué)生在每年的IMO和AMC等國際數(shù)學(xué)競賽中表現(xiàn)優(yōu)異,每年都有多位學(xué)生在國際奧林匹克數(shù)學(xué)競賽中拿到金牌。
所以,學(xué)而思選擇在MathGPT方向發(fā)力也順理成章。
今年2月,學(xué)而思學(xué)習(xí)機上線AI講題機器人小π。
據(jù)了解,小π研發(fā)已有數(shù)年積累,研發(fā)方向主要為數(shù)學(xué)等領(lǐng)域的AI智能講題能力,核心優(yōu)勢在于數(shù)理邏輯和運算。
在實測中,當(dāng)學(xué)而思學(xué)習(xí)機用戶配套的AR鏡識別到一道手寫或者印刷的數(shù)學(xué)計算題時,小π機器人會對題目進(jìn)行智能AI拆解分析,同時生成邏輯流暢、表達(dá)清晰的語言,將題目的解題方法講解出來。
該功能已覆蓋的題目包括分?jǐn)?shù)、小數(shù)等復(fù)雜計算,甚至一些“湊數(shù)、組合”的巧妙算法,已十分接近真人老師的解題效果。
△同一道數(shù)學(xué)題目在ChatGPT(上)和小π(下)的解答對比
小π相關(guān)技術(shù)于2020年啟動研發(fā),以學(xué)而思超3億的專業(yè)題庫數(shù)據(jù)作為基礎(chǔ),經(jīng)過了3年的數(shù)據(jù)訓(xùn)練和打磨迭代。
另據(jù)了解,學(xué)而思學(xué)習(xí)機近期將會上線一款“AI助手”,涵蓋作文助手、口語助手、閱讀助手、數(shù)學(xué)助手等相關(guān)功能,該AI產(chǎn)品將于5月11日開啟內(nèi)測。
MathGPT的挑戰(zhàn)和技術(shù)難題如何利用大語言模型服務(wù)各行各業(yè)是當(dāng)下社會的焦點問題。
大模型的出現(xiàn)是對生產(chǎn)力和生產(chǎn)關(guān)系的改變,各行各業(yè)都會受到影響,并會在大模型的助力下完成轉(zhuǎn)型升級。
教育行業(yè)和大模型有著天然的契合點。教育也是通過交流,把知識和信息傳遞給學(xué)生,大模型會讓教育行業(yè)的數(shù)字化、智能化速度更快。
比如在教育領(lǐng)域,Duolingo、Quizlet、可汗學(xué)院等產(chǎn)品主要和OpenAI合作,在GPT大模型上做微調(diào)和接口調(diào)用,增強原有的產(chǎn)品體驗。
但也有一些領(lǐng)域如數(shù)學(xué)、醫(yī)學(xué)等,對AI的需求是準(zhǔn)確、清晰、具備強大的邏輯推理能力,且容錯率低,通用LLM目前的性能表現(xiàn)還無法在上述領(lǐng)域取得突破,未來是否可能取得突破尚不清晰。
以數(shù)學(xué)領(lǐng)域為例,目前市場上有幾個主要流派。
比如Google收購的Photomath、微軟數(shù)學(xué)、Mathway、專注數(shù)學(xué)計算的WolframAlpha等產(chǎn)品,主要利用非LLM的傳統(tǒng)AI技術(shù)加上數(shù)據(jù)庫的方式解決數(shù)學(xué)問題。
走AGI路線的公司則嘗試讓通用LLM“更懂?dāng)?shù)學(xué)”,比如GPT4在數(shù)學(xué)任務(wù)上比之前的3.5版本性能更好,谷歌旗下的Minerva模型也專門針對數(shù)學(xué)問題進(jìn)行調(diào)優(yōu)。
學(xué)而思選擇了另一條少有人走的路,不基于現(xiàn)有LLM做微調(diào)和接口調(diào)用、不做通用LLM,而是自研基于專業(yè)領(lǐng)域的“數(shù)學(xué)大模型”MathGPT,致力于打造自主、穩(wěn)定、可持續(xù)、高質(zhì)量的學(xué)習(xí)解決方案。
學(xué)而思表示,喬布斯對電腦的定義是“思維的自行車”,MathGPT面向全球的數(shù)學(xué)愛好者,希望能成為學(xué)習(xí)數(shù)學(xué)、思考數(shù)學(xué)的“自行車”,幫助人們更好的解決學(xué)習(xí)數(shù)學(xué)、思考數(shù)學(xué)的問題。
在大語言模型不斷進(jìn)化的浪潮下,不同的技術(shù)路線選擇孰優(yōu)孰劣,仍有待討論和驗證。
學(xué)而思自研獨立的MathGPT大模型是否能夠超越通用模型在數(shù)學(xué)任務(wù)上的表現(xiàn),是否更匹配不同人群的數(shù)學(xué)學(xué)習(xí)場景,這個問題還需要在創(chuàng)新實踐中尋找答案。
隨著整個行業(yè)的深化發(fā)展和越來越多人才參與到這個領(lǐng)域,相信不久的將來就能看到更為成熟的解決方案。
本文(含圖片)為合作媒體授權(quán)創(chuàng)業(yè)邦轉(zhuǎn)載,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。