當(dāng)前位置:首頁(yè) > 資訊動(dòng)態(tài)
更新時(shí)間:2024-04-01 01:23
廣東益福電纜線回收公司1月19日 音訊:英偉達(dá)推出了ChatQA模型,據(jù)悉其性能可以對(duì)飚GPT-4,使用兩階段指令調(diào)整和創(chuàng)新的上下文檢索等高效的訓(xùn)練對(duì)策。
ChatQA是一組溝通式問(wèn)答 (QA) 模型,可以獲得GPT-4級(jí)別的精度。具體來(lái)說(shuō),開(kāi)發(fā)團(tuán)隊(duì)提出了一種兩階段指令調(diào)優(yōu)法子,允許顯著改善大型語(yǔ)言模型(LLM)的零樣本對(duì)話QA結(jié)果。
為了處置對(duì)話式 QA 中的檢索,在多輪 QA 數(shù)據(jù)集上微調(diào)了密集檢索器,這供給了與使用最先進(jìn)的查詢重寫模型特別的結(jié)果,同時(shí)大大降低了部署成本。值得嚴(yán)慎的是,ChatQA-70B 在10個(gè)溝通式 QA 數(shù)據(jù)集(54.14對(duì)53.90)上的平均得分方面優(yōu)于 GPT-4,而無(wú)需倚賴來(lái)自 OpenAI GPT 模型的任何合成數(shù)據(jù)。
(投訴)