Revolucioni SEAL: kur inteligjenca artificiale përmirëson veten

Revolucioni SEAL: kur inteligjenca artificiale përmirëson veten




Shkencëtarët në Massachusetts Institute of Technology (MIT) kanë zhvilluar një sistem që mund të ndryshojë rrënjësisht mënyrën se si funksionon inteligjenca artificiale.
Teknika e re, e quajtur SEAL (Self-Adapting LLMs), u lejon modeleve të gjuhës (LLMs)vetëpërmirësohen pas vendosjes në përdorim, duke gjeneruar dhe përdorur të dhëna sintetike për trajnime të vazhdueshme.

Kjo nënkupton se modelet nuk janë më të “ngurta” apo të mbyllura pas trajnimit fillestar, por mund të mësojnë vetë nga ndërveprimet e tyre — një hap drejt AI-së që evoluon në kohë reale.

Si funksionon SEAL: vetë-mësim me të dhëna sintetike

Sipas ekipit kërkimor të Improbable AI Lab në MIT, që përfshin Adam Zweiger, Jyothish Pari, Han Guo, Ekin Akyürek, Yoon Kim dhe Pulkit Agrawal, SEAL kombinon dy cikle mësimi:

  1. Një cikël të brendshëm për supervised fine-tuning, ku modeli rregullon përgjigjet e veta bazuar në shembuj.
  2. Një cikël të jashtëm që përdor reinforcement learning për të vlerësuar cilat redaktime vetjake përmirësojnë saktësinë.

Në praktikë, modeli krijon versione të reja të përgjigjeve të veta, zgjedh më të mirat dhe i përdor për t’u përmirësuar më tej — duke funksionuar si një sistem vetë-përmirësimi i vazhdueshëm.

Në testet e kryera për detyra si knowledge incorporation dhe few-shot learning, SEAL ka treguar rritje të ndjeshme të performancës. Për shembull, në testin SQuAD, saktësia u rrit nga 33.5% në 47% për pyetje pa kontekst — duke tejkaluar edhe modele që përdornin të dhëna të gjeneruara nga GPT-4.1.

Sfida teknike dhe kufizime

Edhe pse premtues, sistemi SEAL përballet me disa sfida:

  • Harresa katastrofike (catastrophic forgetting): kur modeli mëson informacione të reja, mund të “harrojë” njohuritë e vjetra. SEAL e redukton këtë me teknika shpërblimi, por nuk e shmang plotësisht.
  • Kosto e lartë kompjuterike: çdo cikël vetë-trajnimi kërkon burime të konsiderueshme dhe mund të zgjasë 30–45 sekonda për përditësim, çka e bën të vështirë aplikimin në kohë reale.
  • Vështirësi në përdorim pa të dhëna të etiketura: SEAL funksionon më mirë kur ka referenca të sakta për krahasim; në të kundërt, rrezikon të krijojë përmirësime artificiale pa bazë reale.

Përfitimet kryesore:

  • Modele më fleksibël që përshtaten automatikisht me informacione të reja.
  • Reduktim i nevojës për ndërhyrje njerëzore në përditësim dhe trajnim.
  • Përmirësim në kuptimin kontekstual dhe në detyra që kërkojnë reagim të shpejtë.

Pasojat e mundshme:

  • Rritje e varësisë nga burimet llogaritëse dhe infrastrukturat me energji të lartë.
  • Rrezik për përhapje gabimesh ose dezinformimi nëse modelet “vetë-trajnohen” me të dhëna të pasakta.
  • Nevojë për korniza të reja etike dhe ligjore për të përcaktuar përgjegjësinë e AI që mëson vetë.

Një hap drejt AI-së që evoluon vetë

Ekspertët e MIT besojnë se SEAL mund të jetë gur themeli për gjeneratën e ardhshme të modeleve inteligjente, që përshtaten vetë me mjedisin, pa trajnim të ri nga fillimi.
Nëse kjo teknologji zhvillohet me sukses, ajo mund të transformojë fusha si kërkimi, përkthimi, edukimi dhe automatizimi profesional — duke sjellë më afër vizionin e AI-së që mëson, kujton dhe përmirësohet si njeriu.



/ZoneX Albania – www.zonex.al