Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample
Denna artikel från Meta AI presenterar LLaMA, en serie öppna grundmodeller från 7B till 65B parametrar. Forskarna visar att det är möjligt att träna modeller i toppklass genom att enbart använda offentligt tillgängliga dataset. LLaMA-13B överträffar GPT-3 (175B) på de flesta benchmarks trots att den är mer än 10 gånger mindre. Artikeln startade en explosion av öppen AI-utveckling och finjustering inom forskarsamhället.
Publicerad
2023-02-27
Publicerad i
arXiv
Citeringar
8500