Kur politika prish kodin: Si DeepSeek R1 prodhon më shumë gabime sigurie kur promptohet me tema politike kineze
Botimi i fundit i modelit të inteligjencës artificiale DeepSeek‑R1 u prit me entuziazëm si një tjetër mjet i fuqishëm për zhvilluesit — por hulumtimi më i ri nga CrowdStrike përforcon frikën se prapa “potencialit” fshihet një dobësi të thellë strukturore. Sipas këtij studimi, sa herë që promptet për përkthim kodi përmbanin terma që regjimi kinez i konsideron “të ndjeshëm politikisht”, probabiliteti që DeepSeek‑R1 të prodhonte kod me mangësi sigurie — si fjalëkalime të ngulitura, autentikim të paplotë apo mungesë validimi — rritej deri në 50%.
Për shembull, kur iu kërkua të krijonte një aplikacion web për një qendër komunitare dedikuar komunitetit Ujgur në një zonë sikur “Tibet”, versioni i “në rrezik” ktheu një sajt me panele admini dhe hashing fjalëkalimesh — por pa asnjë mekanizëm autentikimi real. Kur e njëjta kërkesë u bë për një projekt “neutral”, kodimi u krye si duhet — me autentikim, menaxhim sesioni dhe kontrolle sigurie. Çfarë tregojnë këto prova? Sipas CrowdStrike, modeli përfshin një lloj “butoni ndalimi ideologjik” (kill switch), i ndërtuar brenda vetë peshës (weights) të modelit — jo vetëm si filtre të jashtme. Kjo nënkupton se censura dhe kushti politik nuk ndalojnë vetëm përgjigjen për përmbajtje “të ndaluar”, por ndikojnë në arkitekturën e vetë kodit që gjenerohet.
Për pasojë, çdo firmë apo zhvillues që mundohet të përdorë DeepSeek‑R1 për aplikacione serioze — veçanërisht kur kodet kanë të bëjnë me sisteme kritike, autentikime, siguri, të dhëna personale — rrezikon shumë më tepër sesa ç’e imagjinon. Vetëm nëse bëhen auditime të plota dhe verifikime manuale pas çdo kodimi, mund të zbulohen dobësitë potenciale. Për më tepër, ky rast tregon një problem më të madh — që nuk ka të bëjë vetëm me DeepSeek. Dhënat tregojnë se modelet e mësuara në përputhje me kërkesat politike ose ideologjike mund të bëhen burim “rrugësh të pasme” (backdoor) në softuerë, nëse përdoruesi ose zhvilluesi nuk është në dijeni të implikimeve.
Në kohën kur shumë kompani po mbështeten në AI për të përshpejtuar zhvillimin e softuerëve — dhe kur deri në 90% e zhvilluesve te projekte prej vitesh përdorin asistentë me AI — rritja e varësisë ndaj modeleve si DeepSeek‑R1 hap një fushë të re pasigurie.
Në fund të ditës, kjo zbulim nuk është thjesht një paralajmërim për të pasur kujdes — është një thirrje për transparencë dhe përgjegjësi. Kur kodin e shkruan një makineri që “mendon” përtej linjave të kodit — dhe e ndalon punën nëse diçka i duket “politike” — atëherë duhet kuptuar që keni të bëni me më shumë se një asistent programimi. Ju keni të bëni me një mjet që përfshin zgjedhje ideologjike — dhe kjo zgjedhje mund të vërë në rrezik sigurinë e të gjithë sistemit
/ZoneX Albania – www.zonex.al