Anthropic vendos ‘frenat bërthamore’ për AI-në: A mund të ndalet rreziku?

Anthropic vendos ‘frenat bërthamore’ për AI-në: A mund të ndalet rreziku?




Në fund të gushtit 2025, kompania e inteligjencës artificiale Anthropic njoftoi se asnjë përdorues nuk do të jetë në gjendje të përdorë modelin e saj Claude për të krijuar ose përvetësuar armë bërthamore. Për realizimin e këtij qëllimi, kompania bashkëpunoi me Agjencinë Kombëtare për Sigurinë Bërthamore (NNSA) dhe Departamentin e Energjisë së SHBA-s për të zhvilluar një sistem mbrojtës që ndalon debatet ose kërkesat në fushën e proliferimit bërthamor.

Në thelb, strategjia përfshinë instalimin e një “klasifikuesi bërthamor”, një filtër inteligjent që identifikon bisedat me risk të lartë dhe i bllokon ato — ndërkohë që lejon diskutime normale mbi energjinë bërthamore apo isotopët mjekësorë. Anthropic thotë se testimet paraprake të këtij sistemi kanë treguar saktësi rreth 96 %

Megjithatë, ekspertët e fushës shprehen të rezervuar. Disa argumentojnë se modelet e tilla të gjuhës nuk kanë akses fillestar të të dhënave shumë të klasifikuara — çka do të thotë se rreziku real mund të jetë mbivlerësuar. “Nëse Claude nuk është trajnuar me material sekret bërthamor, atëherë veprimi i klasifikuesit është pothuajse simbolik,” shprehet Heidy Khlaaf nga Instituti AI Now.

Ky bashkëpunim mes një kompanie private dhe agjencive shtetërore gjithashtu ngre pyetjen: sa të qarta janë kufijtë mes privatësisë, kontrollit dhe inovacionit teknologjik? Disa argumentojnë se kjo mund të krijojë precedentë ku kompanitë kanë qasje në të dhëna jashtë regjimit publik.



/ZoneX Albania – www.zonex.al