A mesterséges intelligencia világában forradalmi bejelentést tett az Allen Institute for AI (AI2): bemutatták legújabb nyílt forráskódú nyelvi modelljüket, a Tülu 3-at, amely 405 milliárd paraméterével nemcsak felveszi a versenyt az OpenAI GPT-4o modelljével, hanem számos kritikus mérőszámban felül is múlja a DeepSeek v3-at.
A Tülu 3 fejlesztése során az AI2 egyedülálló utólagos tanítási módszertant alkalmazott, amely ötvözi a felügyelt finomhangolást, a preferencia-alapú tanulást és egy újfajta megerősítéses tanulási megközelítést, az úgynevezett „reinforcement learning from verifiable rewards” (RLVR) rendszert. Ez a megközelítés lehetővé teszi a modell számára, hogy ellenőrizhető eredmények, például matematikai problémák helyes megoldása alapján finomhangolja teljesítményét, így javítva a komplex feladatokban nyújtott pontosságot és a biztonsági jellemzőket.
Az AI2 különösen büszke arra, hogy a Tülu 3 teljes mértékben nyílt forráskódú, beleértve a modellt, a tanítási adatokat és a kódot is. Ez lehetővé teszi a fejlesztők és kutatók számára, hogy könnyedén testreszabják a teljes folyamatot az adatkiválasztástól az értékelésig, biztosítva ezzel a modell széleskörű alkalmazhatóságát és átláthatóságát.
A Tülu 3 405B modell különösen jól teljesít a biztonsági értékelések terén, felülmúlva a DeepSeek v3-at, a Llama 3.1-et és a Nous Hermes 3-at. Az RLVR keretrendszer hatékonysága a modell méretével arányosan növekszik, ami arra utal, hogy még nagyobb méretű implementációk esetén további előnyök érhetők el.
Az AI2 célja, hogy a Tülu 3 modellel szűkítse a szakadékot a zárt és nyílt forráskódú modellek teljesítménye között, lehetővé téve a nyílt forráskódú modellek számára, hogy versenyképes alternatívát nyújtsanak a zárt forráskódú modellekkel szemben az ipar és a kutatás területén egyaránt.
A Tülu 3 405B modell elérhető az AI2 weboldalán, valamint kipróbálható az AI2 Playground demófelületén is, így a felhasználók közvetlenül tapasztalhatják meg a modell képességeit és alkalmazhatóságát különböző feladatokban.



