亚洲天堂1区在线|久久久综合国产剧情中文|午夜国产精品无套|中文字幕一二三四区|人人操人人干人人草|一区二区免费漫画|亚洲一区二区a|91五月天在线观看|9丨精品性视频亚洲一二三区视频|国产香蕉免费素人在线二区

中國儲能網(wǎng)歡迎您!
當前位置: 首頁 >數(shù)智化儲能系統(tǒng)>AI與人工智能 返回

大語言模型在儲能研究中的應用

作者:袁譽杭 高宇辰 張俊東 高巖斌 王超瓏 陳翔 張強 來源:《儲能科學與技術(shù)》 發(fā)布時間:2025-02-17 瀏覽:次

中國儲能網(wǎng)訊:

摘 要 在碳達峰、碳中和的大背景下,儲能科學作為一門信息密集、多學科交叉的研究領(lǐng)域,迫切需要新研究方法以應對其日益復雜的難題與挑戰(zhàn)。隨著人工智能技術(shù)的快速發(fā)展,大語言模型在文本處理、信息收集與整合、圖片與視頻生成等領(lǐng)域取得了巨大的成功,其應用也在逐漸延伸至自然科學研究領(lǐng)域,并在提升科研效率等方面展現(xiàn)出了巨大的潛力,有望助力儲能科學應對未來挑戰(zhàn)。本文首先以ChatGPT為例,回顧了人工智能和大語言模型領(lǐng)域的重大進展,從社會生活和科學研究兩方面分析了這些進展所產(chǎn)生的影響,整理了國內(nèi)重點的大語言模型;然后結(jié)合儲能領(lǐng)域的具體案例介紹大語言模型的基本概念及原理,并從信息處理、信息生成和系統(tǒng)集成三個方面詳細探討大語言模型在儲能研究中的應用,凸顯這一全新研究方法的實際效果與發(fā)展前景;最后結(jié)合具體時代背景,指出大語言模型與儲能交叉研究的挑戰(zhàn)與未來發(fā)展方向,并對這一新領(lǐng)域做出總結(jié)和展望。

關(guān)鍵詞 大語言模型;人工智能;儲能技術(shù);二次電池

隨著全球能源消費的急劇增長,傳統(tǒng)化石燃料造成的環(huán)境污染問題日益突出,化石能源枯竭問題亦不可忽視。發(fā)展先進儲能技術(shù),利用風能、太陽能等清潔可再生能源成為應對未來能源危機與環(huán)境問題的重要手段。盡管以鋰離子電池為代表的先進儲能技術(shù)在當代社會的電動交通、消費電子器件、智能電網(wǎng)等領(lǐng)域取得了廣泛的應用,高能量密度(>500 Wh/kg)、高功率密度(>4 C)、長循環(huán)壽命(>15000圈)、高安全性等新需求對未來儲能技術(shù)的發(fā)展提出了更高的要求。經(jīng)過數(shù)十年的快速發(fā)展,儲能領(lǐng)域數(shù)據(jù)與信息快速累積、材料體系與制造工藝日益復雜、大規(guī)模集成應用對系統(tǒng)管理要求越發(fā)嚴苛,因此儲能行業(yè)的進一步發(fā)展面臨著全新的巨大挑戰(zhàn),也迫切需要新研究方法的介入來創(chuàng)造新的機遇與發(fā)展空間。

近年來,人工智能領(lǐng)域的大模型快速發(fā)展,涌現(xiàn)出諸多令人矚目的成果,例如戰(zhàn)勝世界圍棋冠軍的AlphaGo和能夠高精度預測蛋白質(zhì)結(jié)構(gòu)的AlphaFold,這些大模型正在引領(lǐng)產(chǎn)業(yè)的變革。大語言模型(large language model,LLM)是一種旨在理解和生成人類語言的人工智能大模型,盡管其發(fā)展歷史不長,但近期在文本處理與生成、圖片生成、視頻生成等領(lǐng)域?qū)崿F(xiàn)了快速發(fā)展。LLM由于具有卓越的語義理解能力和強大的遷移學習能力,在諸多應用領(lǐng)域受到了越來越廣泛的關(guān)注。例如, OpenAI研究實驗室于2018年6月開發(fā)了GPT-1,通過在不同的未標記文本語料庫上對生成式語言模型進行預訓練,隨后針對特定任務對模型進行有區(qū)別的微調(diào),提升了模型在常識推理、問答等方面的能力。2019年2月,OpenAI使用一個包含數(shù)百萬個網(wǎng)頁的數(shù)據(jù)庫WebText讓語言模型進行無監(jiān)督學習,進一步開發(fā)了GPT-2。2020年5月,OpenAI開發(fā)了GPT-3,該模型在翻譯、問答等任務中展現(xiàn)出優(yōu)異的性能。2022年11月,OpenAI發(fā)布了ChatGPT(chat generative pre-trained transformer)。截至2023年1月末,ChatGPT的用戶破億,成為有史以來增長最快的消費應用軟件。2023年3月,GPT-4發(fā)布,支持圖片輸入,更加可靠和具有創(chuàng)造力。隨后,OpenAI基于Transformer和擴散模型架構(gòu),開發(fā)了視頻生成模型Sora,再次展示了大語言模型的巨大潛力。

大語言模型的誕生對人類社會生活和科學研究產(chǎn)生了深遠的影響。在社會生活方面,大語言模型可以更好地處理自然語言,進行信息的收集與整理,從而對傳統(tǒng)的搜索引擎、咨詢服務等行業(yè)產(chǎn)生極大的沖擊;微軟已經(jīng)在其Office系列辦公軟件中植入Copilot,預示著未來的辦公軟件將進一步智能化、便捷化。OpenAI團隊和賓夕法尼亞大學的研究人員指出,在美國約80%的工作中至少10%的工作任務受到大語言模型的影響,約19%的工作中至少50%的工作任務受到大語言模型的影響,服務業(yè)受到的影響將大于制造業(yè)。在科學研究方面,大語言模型可以幫助批量處理文獻、收集與處理數(shù)據(jù)、撰寫代碼,成為一款強大而有效的科研輔助工具,將科研工作者從一些簡單重復性的工作中解放出來,從而提高科研效率。

與此同時,國內(nèi)的大語言模型也在不斷發(fā)展,如百度的文心一言、騰訊的混元、科大訊飛的訊飛星火、智譜華章的智譜清言等。這些模型的功能正向著具體化、專業(yè)化的方向發(fā)展。其中,文心一言具備一定的文學創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理邏輯推算、中文理解和多模態(tài)生成能力;混元能夠針對文檔、會議、廣告和營銷場景提供多樣化的服務;訊飛星火具有文本生成、語言理解、知識問答、邏輯推理、數(shù)學能力、代碼能力和多模態(tài)能力;智譜清言具備通用問答、總結(jié)、翻譯文檔、代碼生成、創(chuàng)意寫作、分析數(shù)據(jù)等能力。迄今,國內(nèi)外已有數(shù)十甚至數(shù)百種大語言模型被公開報道(圖1)。

圖1   模型參數(shù)大于10B的大語言模型公開報道時間線

大語言模型的應用逐漸拓展至自然科學研究中,給儲能技術(shù)發(fā)展與行業(yè)應用帶來了全新的機遇。本文首先介紹大語言模型的相關(guān)概念,然后從信息處理、信息生成、系統(tǒng)集成等三個方面探討大語言模型在儲能研究領(lǐng)域中的應用,最后總結(jié)這一交叉領(lǐng)域發(fā)展當前所面臨的主要挑戰(zhàn),并展望未來的發(fā)展方向。

1 大語言模型相關(guān)概念解析

為更全面、深入理解大語言模型在儲能研究中的應用,本節(jié)將介紹大語言模型、人工神經(jīng)網(wǎng)絡和生成式語言模型這三個核心基礎(chǔ)概念,簡要概述大語言模型的工作原理,從而幫助讀者更好地理解大語言模型在儲能領(lǐng)域中的應用案例及現(xiàn)階段面臨的主要挑戰(zhàn)。

1.1 大語言模型

大語言模型指使用大量文本數(shù)據(jù)訓練、包含大量模型參數(shù)、用于自然語言處理的深度學習模型。大模型的“大”體現(xiàn)在兩個方面:一方面是訓練數(shù)據(jù)量大;另一方面是模型參數(shù)量大,常達億以上規(guī)模。GPT是具有代表性、影響力較大的大語言模型,歷代GPT的比較如表1所示。其中,GPT-4的訓練模型參數(shù)量高達3000億,且支持多模態(tài)學習任務,例如讀取圖片中信息或者根據(jù)文字生成對應圖片。最近,化學大語言模型發(fā)展迅猛,例如北京科學智能研究院等發(fā)展的大原子模型DPA-2,有望在儲能化學機制探究和儲能材料設(shè)計等領(lǐng)域中實現(xiàn)廣泛應用。

表1   對GPT-1、GPT-2、GPT-3、GPT-4的比較

1.2 人工神經(jīng)網(wǎng)絡模型

大語言模型的基本結(jié)構(gòu)為人工神經(jīng)網(wǎng)絡(圖2)。人工神經(jīng)網(wǎng)絡借鑒了神經(jīng)元間相互聯(lián)系的生理構(gòu)造和傳遞信息的生理功能,可以用于回歸、分類等任務。最簡單的神經(jīng)網(wǎng)絡由輸入層、隱藏層和輸出層組成,每一層由多個神經(jīng)元組成。對于單個神經(jīng)元,在接收上一層神經(jīng)元的數(shù)據(jù)并經(jīng)過計算處理后,將數(shù)據(jù)傳遞給下一層神經(jīng)元。人工神經(jīng)網(wǎng)絡能擬合高度非線性的場景,且適用于處理復雜多變的自然語言。

圖2   人工神經(jīng)網(wǎng)絡模型

人工神經(jīng)網(wǎng)絡模型已經(jīng)被廣泛應用于儲能研究領(lǐng)域,包括儲能材料設(shè)計與儲能器件管理。例如,麻省理工的Jeffrey Grossman教授團隊近日提出COSNet(composition-structure bimodal network)模型預測物質(zhì)性質(zhì),顯著降低了禁帶寬度、固態(tài)電解質(zhì)中的鋰離子電導率等性質(zhì)的預測誤差。電子科技大學劉芯言等采用長短期記憶循環(huán)神經(jīng)網(wǎng)絡模型預測鋰硫電池、鋰離子電池的循環(huán)壽命,并揭示了影響電池循環(huán)壽命的關(guān)鍵因素。

1.3 生成式語言模型

生成式語言模型是一種建立在一系列條件概率基礎(chǔ)上的模型。該模型先接收輸入詞語圖片,再通過條件概率圖片得到后續(xù)各種可能生成詞語的概率,最后綜合考慮條件概率和語法,產(chǎn)生新的詞語(圖3)。大語言模型的生成內(nèi)容不局限于語言,還有表格、代碼等,多樣化的信息呈現(xiàn)方式使得大語言模型能夠用于信息處理。但目前在將通用生成模型直接應用于專業(yè)性的化學問題時,模型的準確率較低。例如,ChatGPT預測分子的油水分配系數(shù)的相對平均誤差為31%;ChatGPT將分子名稱轉(zhuǎn)化到SMILES的正確率僅為26%。因此,開發(fā)儲能研究領(lǐng)域的高質(zhì)量數(shù)據(jù)集和專業(yè)性生成式語言模型十分必要。

圖3   生成式語言模型示意圖

2 大語言模型在儲能領(lǐng)域的應用

本節(jié)將從“信息處理”“信息生成”和“系統(tǒng)集成”三部分介紹大語言模型在儲能研究中的應用。

2.1 信息處理

儲能是當前學術(shù)研究的重要前沿與熱點方向,每天都有大量文獻發(fā)表。以鋰離子電池為例,2023年Web of Science平臺收錄的文獻超過了36000篇(檢索詞:lithium ion batter*)。雖然龐大的文獻與數(shù)據(jù)積累可以為該領(lǐng)域研究者提供大量的參考,但同時也帶來新的挑戰(zhàn)。一方面,個人幾乎不可能依靠傳統(tǒng)方式閱讀完領(lǐng)域內(nèi)所有的文獻與資料;另一方面,研究學術(shù)迫切需要的信息也常常淹沒在知識的海洋中而難以被快速檢索到。大語言模型能顯著加快文獻信息的處理過程,給儲能研究從業(yè)者提供了強大的新工具。例如加州大學伯克利分校Omar M. Yaghi教授團隊構(gòu)建了ChatGPT化學助手來加速MOF(metal-organic framework)材料的設(shè)計開發(fā)(圖4)。ChatGPT化學助手工作流程如圖4(a)所示,首先通過Python程序?qū)⒁寻l(fā)表文獻分為文本片段,再經(jīng)過篩選得到需要的文本片段,隨后對文本進行分類,并從中取出與合成信息有關(guān)的段落,最后通過訓練得到的語言模型以表格的形式呈現(xiàn)出文獻的數(shù)據(jù)。在得到的合成數(shù)據(jù)表格的基礎(chǔ)上,可以通過向大語言模型提問直接得到MOF合成方面的專業(yè)回答,最后結(jié)合領(lǐng)域?qū)<抑R開發(fā)后續(xù)材料合成實驗。和傳統(tǒng)的人工輸入文獻相比,AI輔助的信息搜集過程雖然使精度略有下降[圖4(c)],但處理每篇文獻所需要的總時間可以降低到人工處理文獻所需時間的三分之一[圖4(b)]。ChatGPT化學助手最終在預測MOF材料結(jié)晶性方面實現(xiàn)了87%的準確率,并初步確認了MOF結(jié)晶過程中的重要因素。

圖4   ChatGPT化學助手三種工作流程示意圖。(a) ChatGPT化學助手工作流程圖,三種工作流程分別用紅點、藍點和綠點標識;(b) 每種流程閱讀和處理一篇文獻的平均用時比較;(c) 每種流程的總平均精度、召回率和F1分數(shù),圖表中的灰色誤差棒表示標準差

除了傳統(tǒng)的大語言模型,專注于科研領(lǐng)域的大語言模型也正在涌現(xiàn)。為了快速收集結(jié)構(gòu)化數(shù)據(jù)集,新南威爾士大學Bram Hoex教授團隊提出了一種新的自然語言處理任務,結(jié)構(gòu)化信息推理??茖W家能夠通過在其領(lǐng)域內(nèi)選擇高質(zhì)量的綜述文章來開發(fā)模型,從而批量得到材料和器件信息,如成分、結(jié)構(gòu)、制備條件等。為了便于大語言模型高效理解化學分子信息,香港理工大學李青教授團隊開發(fā)了一種用于分子翻譯的MolReGPT框架,能夠完成根據(jù)分子結(jié)構(gòu)獲取分子性質(zhì)與描述性信息以及根據(jù)文本陳述獲取目標分子的任務。

大語言模型能夠以多種有效的方式呈現(xiàn)其加工后的信息。對于段落與文本,大語言模型能夠?qū)ζ溥M行分類,從大量的文本中精煉出有價值的信息,減少研究者文本處理的時間。對于數(shù)據(jù),研究者可以要求大語言模型以一定的格式呈現(xiàn)數(shù)據(jù),比如流程圖、圖片和表格。研究者可以借助大語言模型將傳統(tǒng)的材料合成文字,并轉(zhuǎn)化成簡潔的流程圖,從而使得材料合成過程的描述簡化、規(guī)范化(圖5)。圖5(a)對比了兩種合成表述方式(段落的文字表述與分步明確的流程圖表述)的可讀性,其中F-K值(flesch-kincaid grade level score of readability)越低表明可讀性越高。由此可見,流程圖相較于段落式的表達具有更高的可讀性。

圖5   使用ChatGPT將材料合成文本轉(zhuǎn)為流程圖的效果和圖解。(a) 傳統(tǒng)文本和流程圖的F-K可讀性分數(shù)比較;(b) 使用ChatGPT將材料合成文本轉(zhuǎn)化成流程圖的形式

盡管能夠極大地提高文獻閱讀和整理速度,現(xiàn)階段的大語言模型依然存在弊端。首先,由于模型對領(lǐng)域知識的了解較為匱乏或者訓練模型的數(shù)據(jù)集中存在錯誤信息,模型可能生成片面甚至錯誤的信息,從而帶來信息誤導。其次,大語言模型的訓練集來源于網(wǎng)絡,其信息必然

一個確定的截止時間點,由于截止時間點后的信息并不在模型的訓練集內(nèi),導致其生成的內(nèi)容具有滯后性。因此,在線查詢和更新語料庫等是目前大語言模型發(fā)展的重要方向之一。最后,大語言模型的推理能力依然有限,難以在前沿研究領(lǐng)域提供原創(chuàng)性信息。荷蘭瓦格寧根大學Arjen Wals教授團隊對ChatGPT的SWOT(strengths, weaknesses, opportunities and threats)分析指出,這項人工智能技術(shù)對其提供的信息缺乏深入的理解,難以保證其提供信息的質(zhì)量,并且缺少更高階的思考方式。前福布斯理事會成員、首席創(chuàng)新官Stefan Harrer指出,大語言模型難以為其提供的信息負責,其提供的信息缺乏透明性和可解釋性。

2.2 信息生成

創(chuàng)新性想法在儲能研究中至關(guān)重要,但新想法的提出不僅需要研究者具有豐富的儲能知識,還需要個人長時間的思考與靈感。大語言模型能夠大大降低提出新想法的時間成本,因為它能夠集結(jié)數(shù)以億計的互聯(lián)網(wǎng)用戶的想法。例如,向ChatGPT提問“請問如何解決電池的易燃易爆問題?”ChatGPT給出了10個解決方案:更好的電池設(shè)計、電池管理系統(tǒng)(battery management system, BMS)、溫度控制、固態(tài)電池、耐火電池外殼、具有關(guān)閉功能的電池隔膜、安全檢查、安全教育、合理的回收和遺棄體系、研究合作。這樣一個僅僅耗時數(shù)秒的對話,就能讓研究者得到眾多不同角度的答案。當要了解某一具體科學知識時,大語言模型能夠提供快速、個性化的回答,這降低了大眾了解科學知識的門檻。當研究團隊需要對某一科學問題展開討論時,大語言模型能夠作為一個有豐富知識儲備的團隊成員參與討論,甚至參與決策。

通過一定的處理方式,大語言模型的研究者可以提高模型所產(chǎn)生想法的質(zhì)量:其一,研究者可以在整合模型提供的回答后,再次向模型發(fā)問,從而得到更高質(zhì)量的回答;其二,雖然大語言模型的想法總體缺少創(chuàng)新性,但是研究者可以要求大語言模型從其提供的想法中篩選出相對更具有原創(chuàng)性或?qū)嵱眯缘南敕ā?

大語言模型在報告與論文撰寫方面的能力受到了廣泛關(guān)注。大語言模型能夠根據(jù)研究者的要求,快速生成含有較多信息并且格式規(guī)整、有邏輯的文本,這種能力可以用于給文本打草稿,從而加速文本撰寫的速度,而且大語言模型還能夠幫助研究者減少語法的低級錯誤,并對文本加以潤色修改。

具備一定的編程能力是開展儲能人工智能研究的前提條件,而大語言模型極大地降低了研究者編程的門檻,包括輔助代碼撰寫、修改以及注釋。Chen等OpenAI研究者通過對已有的GPT模型進行微調(diào),得到Codex模型,該模型能夠較好地解決面試級別難度的編程問題。代碼修改方面,基于大語言模型的Codex、CodeBERT和Conversational APR相繼被提出。Codex所支持的Copilot具備自動填充、補全代碼的功能,還能對生成的代碼進行注釋,使代碼的可讀性與可解釋性更優(yōu)。

2.3 系統(tǒng)集成

結(jié)合上述信息處理與信息生成功能,大語言模型有望與現(xiàn)有儲能研究手段及新興技術(shù)(高通量實驗、智能機器人等)集成,推動儲能材料研發(fā)、儲能工業(yè)生產(chǎn)與儲能系統(tǒng)運維進一步向智能化方向發(fā)展。

在儲能材料研發(fā)方面,中國科學院外籍院士、英國利物浦大學教授Andrew I. Cooper的團隊2020年研發(fā)了可移動機器人,用于尋找更優(yōu)的用于光解水制氫的光催化劑。該機器人在8天內(nèi)共自主執(zhí)行了688次實驗,并通過貝葉斯搜索算法從十個維度改變實驗條件,最終找到產(chǎn)氫速率達到21.05 μmol/h的光催化劑混合物,約為實驗開始時基準光催化劑3.36 μmol/h的產(chǎn)氫速率的6倍。但該團隊也指出了其工作的不足:該機器人沒有學習已有的化學知識,也不包括任何物理模型。

一種自然的改進想法是通過大語言模型的信息處理功能來學習已有的文獻數(shù)據(jù),將已有的物理、化學知識嵌入智能機器人。2022年,中國科學技術(shù)大學江俊教授團隊研發(fā)出由服務平臺、可移動機器人、工作站和計算大腦組成的“機器化學家”(圖6),它能夠閱讀文獻、提出假設(shè)、執(zhí)行自動化操作、分析實驗數(shù)據(jù)、訓練機器學習模型并反饋產(chǎn)生新的假設(shè)。實際性能方面,“全流程人工智能化學家”閱讀了15979篇論文,從文獻的4865個分子中篩選出發(fā)射波長位于可見光波段的具有聚集誘導發(fā)射特性的生物相容性發(fā)光體,并確定了發(fā)光體的最佳濃度為20 mmol左右[圖6(b)]。在另一個實驗中,機器化學家通過篩選將實驗次數(shù)降低到207次,大大提高了基于MIL-101 MOF的高熵電催化劑的設(shè)計與合成效率,并且最終從中選取出相同電流密度下過電勢最低的電催化劑。具體而言,隨著實驗的開展與模型的迭代,207次實驗中不同電催化劑在5 mA/cm2的電流密度下的過電勢總體呈下降趨勢[圖6(c)]。這一結(jié)果體現(xiàn)了機器化學家在自主篩選發(fā)現(xiàn)新催化劑材料方面的可行性與巨大潛力。

圖6   一位有科學思維的全能人工智能“化學家”展示

最新的智能機器人將數(shù)據(jù)庫篩選與檢索、文本挖掘、機器學習、主動學習和機器人技術(shù)相結(jié)合,建立從數(shù)據(jù)獲取到產(chǎn)品迭代一體化的自主人工智能實驗室,以高成功率合成了滿足要求的新型材料,證明了人工智能驅(qū)動平臺在自主發(fā)現(xiàn)新材料方面的有效性,并推動了文獻知識、計算化學和機器人技術(shù)的進一步協(xié)同發(fā)展。2023年,美國加州大學伯克利分校的Gerbrand Ceder教授團隊開發(fā)了用于無機粉末固態(tài)合成的自主實驗室A-Lab平臺[圖7(a)]。首先,該平臺使用數(shù)據(jù)庫篩選與文本挖掘策略獲得項目所需數(shù)據(jù)集,在Materials Project數(shù)據(jù)庫中交叉篩選理論可行但是實驗中未報道的數(shù)據(jù),并在24304篇出版物中提取到33343個固態(tài)樣品合成方案。然后,該平臺應用兩套機器學習模型分別提供五個初始合成配方以及合成溫度,通過調(diào)用三個基于機器人技術(shù)的集成工作站進行實驗,分別用于樣品制備、加熱和表征。最后,平臺自動檢驗產(chǎn)品質(zhì)量,若該輪實驗合成產(chǎn)物未能達到所需目標50%以上的產(chǎn)率,平臺將繼續(xù)使用基于主動學習的自主反應路線優(yōu)化模塊進行迭代實驗,并對失敗的合成分析提供直接且可行的建議,以改進當前的材料篩選和合成設(shè)計方案。該平臺通過上述工作流程,在17?天的連續(xù)運作中合成了58種目標化合物中的41種,成功率為71%[圖7(b)]。

圖7   A-LAB示意圖

智能化學機器人的相關(guān)研究成果正通過更加集成化的平臺展現(xiàn)。例如,美國卡內(nèi)基梅隆大學的Gabe Gomes助理教授團隊開發(fā)了一種基于多語言模型驅(qū)動的智能系統(tǒng)Coscientist,該平臺包含網(wǎng)頁搜索模塊、文檔搜索模塊與硬件控制模塊,能夠從瀏覽互聯(lián)網(wǎng)和搜集文獻開始,完成自主設(shè)計、規(guī)劃和執(zhí)行復雜的科學實驗,分析和優(yōu)化實驗結(jié)果,目前已成功完成了鈀催化交叉偶聯(lián)的反應優(yōu)化,并展現(xiàn)出了一定的化學推理能力。洛桑聯(lián)邦理工學院的Philippe Schwaller教授等開發(fā)了ChemCrow平臺,集成了13種化學工具,旨在完成有機合成、藥物發(fā)現(xiàn)和材料設(shè)計等各種任務。谷歌的Ekin Dogus Cubuk等開發(fā)了一套基于圖網(wǎng)絡的材料發(fā)現(xiàn)框架(graph networks for materials exploration, GNoME),高效地發(fā)現(xiàn)了220萬種穩(wěn)定的晶體結(jié)構(gòu),例如層狀材料和固態(tài)電解質(zhì),GNoME的部分成果已整合至Materials Project。

在儲能工業(yè)生產(chǎn)方面,大語言模型能進一步推動儲能行業(yè)向智能化方向發(fā)展。目前,傳統(tǒng)鋰離子電池工業(yè)生產(chǎn)線已經(jīng)實現(xiàn)高度自動化流水作業(yè)。一方面,大語言模型與現(xiàn)有技術(shù)結(jié)合可以讓工業(yè)機器人真正意義上“動起來”而非重復簡單的機械動作,進一步提升工業(yè)自動化生產(chǎn)水平。例如,將實際采集數(shù)據(jù)或者圖像輸入大語言模型模塊,為工業(yè)機器人執(zhí)行任務提供推理決策能力,使工業(yè)生產(chǎn)由流水作業(yè)向任務導向轉(zhuǎn)變,具備智能生產(chǎn)的功能。另一方面,大語言模型模塊可以實現(xiàn)工程師與工業(yè)機器人的語言交互,通過通俗易懂的語言指令替代復雜的機械操作或者代碼指令,指揮機器人執(zhí)行相應任務,從而加速工業(yè)機器人功能開發(fā)與調(diào)試。

鋰電池等儲能產(chǎn)品面臨著多元化的用戶需求,電極與電解質(zhì)材料、電極尺寸與厚度、電池型號、生產(chǎn)制造工藝等選擇不一,因而產(chǎn)品設(shè)計研發(fā)復雜度高。大語言模型可以與當前電池產(chǎn)品與工藝設(shè)計軟件相結(jié)合,提高電池產(chǎn)品研發(fā)效率。一方面,大語言模型支持多模態(tài)的語言交互,可以實現(xiàn)產(chǎn)品設(shè)計工程師與軟件的高效互動;另一方面,大語言模型可以充分利用已有積累的工業(yè)大數(shù)據(jù),建立電池產(chǎn)品設(shè)計目標與設(shè)計參數(shù)之間的定量關(guān)聯(lián),結(jié)合生成模型、主動學習等先進算法,在龐大的設(shè)計維度空間進行產(chǎn)品的快速設(shè)計開發(fā)。

在儲能系統(tǒng)運維方面,大語言模型可以發(fā)揮語言交互式大模型在處理海量數(shù)據(jù)并高效提供決策方案的優(yōu)勢。一方面,GWh級別電化學儲能電站包含幾十萬甚至上百萬節(jié)鋰離子電池,迫切需要高效的運維手段。大語言模型有望融合化學機理與傳統(tǒng)深度學習方法,精準預測鋰離子電池健康狀態(tài)并提前預警安全風險,為電化學儲能電站的安全運行提供技術(shù)支撐;同時可以結(jié)合均衡仿真技術(shù),在保障安全的前提下充分利用每一節(jié)電池的可用容量,實現(xiàn)儲能系統(tǒng)整體效率的最大化。另一方面,電化學儲能電站需要與電網(wǎng)層面的電力需求和調(diào)度做好結(jié)合?;诖笳Z言模型對供需關(guān)系等信息的分析,可以提供高效的電力交易策略和電力價格優(yōu)化方案,從而實現(xiàn)電化學儲能系統(tǒng)與電網(wǎng)之間的智能調(diào)度??紤]到目前大語言模型的能力限制,需要理性客觀看待大語言模型在能源系統(tǒng)運維中的應用。在能源系統(tǒng)中使用大語言模型可能在數(shù)據(jù)隱私、模型運行能耗、系統(tǒng)在惡意攻擊中的安全性等方面遇到挑戰(zhàn)。GTP-4能夠用于建立在電網(wǎng)仿真工具OpenDSS上運行的分配網(wǎng)絡,但是在缺少相應案例的情況下GPT-4的表現(xiàn)相對一般。

3 大語言模型與儲能交叉研究挑戰(zhàn)與未來發(fā)展方向

大語言模型的出現(xiàn)進一步推動了儲能研究向著智能化、信息化的方向發(fā)展,有望在儲能材料研發(fā)、能源互聯(lián)網(wǎng)、云儲能等技術(shù)中加速信息處理與交互,實現(xiàn)能源供應者、能源服務提供者、能源監(jiān)管者、能源使用者、第三方平臺之間信息的即時傳遞,從而使能源系統(tǒng)符合能源轉(zhuǎn)型的需要。例如,大語言模型不僅能快速總結(jié)文獻,還能夠?qū)σ幌盗行畔⒓右蕴幚?,這將有利于大數(shù)據(jù)和科學研究的結(jié)合,促進材料科學研究和電解液分子設(shè)計研究。此外,機器學習正被用于能源材料研究,而ChatGPT等模型的代碼生成功能降低了機器學習等研究方法的門檻,這將有助于和編程有關(guān)的新研究方法的推廣。系統(tǒng)集成方面,將大語言模型與機器人等技術(shù)深度結(jié)合能夠提高儲能材料研發(fā)效率,并且能推動儲能工業(yè)生產(chǎn)和儲能系統(tǒng)運維向更安全、更智能的方向發(fā)展。與此同時,大語言模型與儲能交叉研究也面臨著諸多挑戰(zhàn)。

(1)高質(zhì)量數(shù)據(jù)集的建立。數(shù)據(jù)質(zhì)量的高低是保障人工智能模型預測精度的重要條件。如何在保證儲能數(shù)據(jù)安全的前提條件下,建立高質(zhì)量的儲能行業(yè)內(nèi)部或公開數(shù)據(jù)集,對于促進大語言模型與儲能交叉領(lǐng)域發(fā)展十分關(guān)鍵。

(2)兼顧模型泛化能力與精度。當前大語言模型主要面向傳統(tǒng)計算機領(lǐng)域,而根據(jù)儲能行業(yè)特點個性化開發(fā)的大模型較為缺乏。盡管大語言模型具有較好的泛化能力,直接將其遷移至儲能研究領(lǐng)域可能存在模型精度低的問題。

(3)大規(guī)模算力支撐。大語言模型的訓練和使用往往需要大規(guī)模算力的支撐,其在儲能行業(yè)的應用也受到高端芯片和電力資源的影響。借助當前成熟的云算力平臺能夠解決算力需求難題,但面臨著數(shù)據(jù)泄露與網(wǎng)絡安全等潛在風險。

盡管大語言模型當前在信息準確性、信息原創(chuàng)性、模型安全性等方面還存在一定的不足,隨著國家對“人工智能+”政策的支持,以及對兼?zhèn)鋬δ芎腿斯ぶ悄軐I(yè)知識交叉領(lǐng)域人才的需求,大語言模型未來將在儲能研究與行業(yè)中進一步廣泛與深度應用,推進儲能行業(yè)的快速、健康、持續(xù)發(fā)展,為構(gòu)建綠色新能源系統(tǒng)和保障國家能源安全提供關(guān)鍵技術(shù)支撐。

4 結(jié) 語

大語言模型正從信息處理、信息生成、系統(tǒng)集成等方面影響著科學研究,能夠極大地提高科研效率。本文首先介紹了大語言模型相關(guān)概念;然后從信息處理、信息生成和系統(tǒng)集成三個方面系統(tǒng)討論了大語言模型在儲能領(lǐng)域中的應用,重點強調(diào)了大語言模型如何推動儲能材料研發(fā)、儲能工業(yè)生產(chǎn)與儲能系統(tǒng)運維進一步向智能化方向發(fā)展;最后討論了大語言模型與儲能交叉研究現(xiàn)階段的主要挑戰(zhàn)以及未來發(fā)展方向??梢灶A見的是,大語言模型將廣泛滲入儲能研究與儲能產(chǎn)業(yè),推動原有研發(fā)模式與生產(chǎn)技術(shù)革新,加快發(fā)展先進儲能新質(zhì)生產(chǎn)力。
第一作者:袁譽杭(2002—),男,本科,研究方向為鋰電池電解液機器學習,E-mail:yuan-yh21@mails.tsinghua.edu.cn;

分享到:

關(guān)鍵字:人工智能

中國儲能網(wǎng)版權(quán)說明:

1、凡注明來源為“中國儲能網(wǎng):xxx(署名)”,除與中國儲能網(wǎng)簽署內(nèi)容授權(quán)協(xié)議的網(wǎng)站外,未經(jīng)本網(wǎng)授權(quán),任何單位及個人不得轉(zhuǎn)載、摘編或以其它方式使用上述作品。

2、凡本網(wǎng)注明“來源:xxx(非中國儲能網(wǎng))”的作品,均轉(zhuǎn)載與其他媒體,目的在于傳播更多信息,但并不代表中國儲能網(wǎng)贊同其觀點、立場或證實其描述。其他媒體如需轉(zhuǎn)載,請與稿件來源方聯(lián)系,如產(chǎn)生任何版權(quán)問題與本網(wǎng)無關(guān)。

3、如因作品內(nèi)容、版權(quán)以及引用的圖片(或配圖)內(nèi)容僅供參考,如有涉及版權(quán)問題,可聯(lián)系我們直接刪除處理。請在30日內(nèi)進行。

4、有關(guān)作品版權(quán)事宜請聯(lián)系:13661266197、 郵箱:ly83518@126.com