
昨日,谷歌公司發(fā)布博文,邀請所有 Gemini 應(yīng)用用戶訪問最新的 Gemini 2.0 Flash 應(yīng)用模型,并放開 2.0 Flash Thinking 推理實(shí)驗?zāi)P汀?/p>
Gemini 2.0 Flash 模型于 2024 年 I/O 大會首次亮相,憑借低延遲和高性能成為開發(fā)者熱門之選。它適用于大規(guī)模、高頻率任務(wù),能處理 100 萬 tokens 的上下文窗口,具備強(qiáng)大多模態(tài)推理能力,還可與 YouTube、Google Search 和 Google Maps 等應(yīng)用交互,助力用戶拓展知識。
基于 2.0 Flash 的 2.0 Flash Thinking 模型,經(jīng)訓(xùn)練可將提示分解步驟,增強(qiáng)推理能力,其 Experimental 版本還展示思考過程,讓用戶了解決策邏輯。此外,還推出與多應(yīng)用互動的 2.0 Flash Thinking 版本,未來將結(jié)合新推理能力幫助用戶完成更多任務(wù)。
谷歌還推出 Gemini 2.0 Pro 實(shí)驗版,擅長編程、能處理復(fù)雜提示,有 200 萬 tokens 上下文窗口,支持調(diào)用搜索和代碼執(zhí)行工具,開發(fā)者和高級用戶可在多平臺體驗。
另外,Google AI Studio 推出 Gemini 2.0 Flash – Lite 模型,號稱最具成本效益,保持低成本和快速響應(yīng)的同時,質(zhì)量高于 1.5 Flash,支持 100 萬 tokens 窗口和多模態(tài)輸入。
原創(chuàng)文章,作者:Google,如若轉(zhuǎn)載,請注明出處:http://www.2079x.cn/article/705057.html