Ez az AI modell soha nem hagyja abba a tanulást

Ez az AI modell soha nem hagyja abba a tanulást

Nagyszerű modern nyelv A modellek (LLM) gyönyörű szonetteket és elegáns kódot tudnak írni, ám még nincsenek kezdetleges képességük a tapasztalatokból való tanulásra.

A Massachusetts Institute of Technology (MIT) kutatói most úgy tervezték meg, hogy az LLM -ek tovább fejlődjenek, saját paramétereik finomításával az új hasznos információkra válaszul.

A munka egy lépés a folyamatosan tanuló mesterséges intelligencia modellek felépítése felé – ez egy hosszú ideje működő cél a tartományban, és olyasmi, amely döntő jelentőségű, ha a gépek egyre inkább utánozzák az emberi intelligenciát. Időközben ez chatbotokat és más AI eszközöket adhat nekünk, amelyek jobban beépíthetik az új információkat, ideértve a felhasználó érdekeit és preferenciáit.

A MIT séma, az úgynevezett automatikus adaptációs nyelvmodellek (SEAL), azt jelenti, hogy az LLM megtanulja létrehozni saját szintetikus képzési adatait, és frissíteni az eljárást a kapott bejegyzés szerint.

“A kezdeti ötlet az volt, hogy feltárjuk, hogy a tokenek (az LLM -vel táplált és az általuk generált szöveges egységek) egy modell erőteljes frissítését okozhatják” – magyarázza Jyothish Pari, a Seal fejlesztésében részt vevő doktori hallgató. Bet azt mondja, hogy az ötlet az volt, hogy megnézze, hogy egy modell felszabadulása felhasználható -e annak kiképzésére.

Adam Zweiger, az MIT első ciklusú kutatója, aki részt vesz az épület pecsétjében, hozzáteszi, hogy bár az új modellek „okaikat” tudják okozni a jobb megoldásokhoz egy bonyolultabb következtetés végrehajtásával, maga a modell nem részesül ehhez a hosszú távú érveléshez.

A pecsét viszont új perspektívákat generál, majd a saját súlyába vagy paraméterébe hajtja. Például az Apollo Űrprogram által felmerült kihívásokról szóló nyilatkozat, a modell új részeket generált, amelyek megpróbálják leírni a nyilatkozat következményeit. A kutatók ezt összehasonlították azzal, ahogyan az emberi hallgató írja és megvizsgálja a jegyzeteket, hogy segítsék a tanulásukat.

A rendszer ezután frissítette a modellt ezen adatok felhasználásával, és megvizsgálta, hogy az új modell mennyire képes megválaszolni egy kérdéskészletet. És végül, ez egy erősítő tanulási jelet biztosít, amely segíti a modellt a frissítésekhez, amelyek javítják a globális kapacitásait és segítik a tanulás folytatását.

A kutatók két nyílt forráskódú modell kis- és közepes verzióján, a Meta kis- és közepes verzióján tesztelték megközelítését Láma és Alibaba Qwen– Azt mondják, hogy a megközelítésnek sokkal nagyobb határmodelleknél is működnie kell.

A kutatók megvizsgálták a szöveg pecsét megközelítését, valamint az ARC -nek nevezett referenciát, amely méri az AI modell képességét az absztrakt érvelés problémáinak megoldására. Mindkét esetben látták, hogy a pecsét lehetővé tette a modellek számára, hogy a tanulást messze túlmutatják a kezdeti képzésükön.

Pulkit Agrawal, a MIT professzora, aki felügyelte a munkát, azt mondja, hogy a SEAL projekt az AI fontos témáival foglalkozik, beleértve azt is, hogy miként lehet az AI -t megérteni, hogy mit kell tanulnia. Azt mondja, hogy felhasználható az AI modellek személyre szabottabbá tételére. “Az LLMS hatalmas, de nem akarjuk, hogy tudásuk leálljon” – mondta.

A pecsét még nem módja annak, hogy az AI határozatlan ideig javuljon. Egyrészt, amint azt Agrawal megjegyzi, a vizsgált LLMS -t szenvedik az úgynevezett “katasztrofális feledékenységnek”, amely zavaró hatás, amikor az új információk lenyelése a régebbi tudás eltűnését okozza. Ez jelezheti a mesterséges idegi hálózatok és a biológiai hálózatok közötti alapvető különbséget. A Bet és a Zweigler azt is megjegyzi, hogy a pecsét nagy intenzitású számítással rendelkezik, és még nem egyértelmű, hogy a leghatékonyabban új tanulási periódusokat tervezzük. Zweigler szerint egy szórakoztató ötlet, hogy az emberekhez hasonlóan az LLM esetleg “alvási” időszakokat tapasztalhat meg, amikor új információkat konszolidálnak.

Azonban minden korlátja esetében a Seal új izgalmas út az AI mélyebb kutatásához – és ez talán valami, amit a Border AI -k jövőbeli modelljeiben talál.

Mit gondolsz az AI -ről, aki továbbra is tanulhat? Küldjön egy e-mailt a hello@wired.com címre, hogy tudassa velem.

Leave a Reply

Your email address will not be published. Required fields are marked *