
OpenAI új nyílt forráskódú modelljei: Játékmegváltoztató lehetőségek
Az OpenAI nemrégiben két új, nyílt forráskódú nyelvi modellt bocsátott ki az Apache 2.0 licenc alatt. Ezek a modellek arra lettek tervezve, hogy erős teljesítményt nyújtsanak valós környezetben, anélkül, hogy drága infrastruktúrára lenne szükség. Különösen figyelemre méltó, hogy ezek a modellek akár 16 GB-os GPU-val rendelkező, csúcskategóriás laptopokon is futtathatók, így szélesebb körben elérhetők a fejlesztők számára.
Alacsony költség, magas teljesítmény
Az OpenAI által bemutatott két modell a következő: gpt-oss-120b, amely 117 milliárd paraméterrel rendelkezik, és a gpt-oss-20b, amely 21 milliárd paramétert tartalmaz. A nagyobb modell teljesítménye megegyezik az OpenAI o4-mini modelljével, miközben mindössze egy 80 GB-os GPU-ra van szüksége. A kisebb modell, a gpt-oss-20b, hasonló teljesítményt nyújt, mint az o3-mini, és hatékonyan futtatható olyan eszközökön is, amelyek csak 16 GB-os GPU-val rendelkeznek. Ez a fejlesztők számára jelentős előnyöket kínál, mivel lehetővé teszi a modellek széles körű alkalmazását anélkül, hogy komoly anyagi ráfordításokra lenne szükség.
Fejlett érvelési képességek és integrációs lehetőségek
Az OpenAI hangsúlyozza, hogy az új modellek teljesítménye felülmúlja a hasonló méretű nyílt forráskódú modellekét, különösen az érvelési feladatok és az eszközhasználat terén. Az OpenAI szerint ezek a modellek teljes mértékben testreszabhatóak, és támogatják a struktúrált kimeneteket, ami lehetővé teszi az összetett szoftverrendszerekhez való alkalmazkodást. A modellek fejlesztői útmutatókat is kaptak, hogy megkönnyítsék a platformokkal, például a Hugging Face-szel és a GitHub-bal való integrációt.
A modellek a biztonság szempontjából is figyelemre méltóak. Az OpenAI célja az volt, hogy biztosítsa a modellek biztonságos működését mind az edzés, mind a kiadás során. A tesztelések során kiderült, hogy még szándékosan káros finomhangolás mellett sem érte el a gpt-oss-120b a biológiai, kémiai vagy kiberkockázatok terén a veszélyes szintet.
A gondolkodás láncának megőrzése
Az OpenAI tudatosan döntött úgy, hogy a gondolkodás láncát (CoT) nem szűri meg az edzés során, hogy megőrizze azok hasznosságát a monitorozás számára. Ez a döntés azonban potenciálisan magasabb hallucinációs pontszámokat eredményezhet. A modellek dokumentációja szerint a nem korlátozott gondolkodási láncok tartalmazhatnak olyan tartalmakat, amelyek nem felelnek meg az OpenAI biztonsági politikájának. A fejlesztőknek ezért óvatosan kell bánniuk a gondolkodási láncok bemutatásával a felhasználóknak, megfelelő szűrések és moderációk alkalmazásával.
Bár a benchmarking során a két nyílt forráskódú modell teljesítménye elmaradt az OpenAI o4-mini modelljétől a hallucinációs benchmarkok terén, a valós alkalmazásokban, ahol a modellek információkat kereshetnek az interneten vagy adatbázisokból, várhatóan kevesebb hallucinációval kell szembenézniük.
Mit mond a szakértő a fejleményekről?
Megkérdeztük Császár Viktor SEO szakértőt, hogy mit gondol az OpenAI új nyílt forráskódú modelljeiről. Viktor elmondta: „Az OpenAI által bemutatott új modellek jelentős előrelépést jelentenek az AI fejlesztések terén. A nyílt forráskódú megoldások lehetővé teszik, hogy a fejlesztők szélesebb körben alkalmazhassák a mesterséges intelligenciát, anélkül, hogy hatalmas költségeket kellene vállalniuk. Az ilyen modellek bevezetése nemcsak a technológiai fejlődést szolgálja, hanem a versenyképességet is növeli a piacon. Az átláthatóság és a testreszabhatóság előnyei szintén fontosak, különösen a biztonsági és etikai kérdések kezelésében.”
További információkért látogasson el Császár Viktor weboldalára: csaszarviktor.hu.
Forrás: SearchEngineJournal.com

