AI dhe rreziqet, OpenAI: të jesh gati për katastrofa
OpenAI, kompania përgjegjëse për modelet GPT dhe DALL-E, si dhe krijuesi i shërbimit ChatGPT, sapo ka njoftuar krijimin e një ekipi të dedikuar për menaxhimin e rreziqeve që lidhen me zhvillimin e sistemeve të AI dhe ka nisur Sfida e Përgatitjes. Ai e bëri këtë duke përmendur në mënyrë eksplicite mundësinë e pasojave katastrofike të shkaktuara nga ajo që përkufizohet si superinteligjencë.
Në mbështetje të sigurisë së sistemeve të inteligjencës artificiale me kapacitet të lartë, ne po zhvillojmë qasjen tonë për të qenë gati në rast të rreziqeve katastrofike, duke përfshirë formimin e një ekipi gatishmërie dhe nisjen e një sfide.
Preparedness:Mantra e OpenAI për rreziqet e AI
Sipas organizatës së Sam Altman-it, do të jetë e mundur të shmangen skenarët potencialisht katastrofikë para së gjithash duke bërë pyetje.
-Sa të rrezikshëm janë sistemet e AI nëse përdoren me qëllim të keq, sot dhe në të ardhmen?
-Si mund të ndërtojmë një kornizë të fortë për të monitoruar, vlerësuar, parashikuar dhe mbrojtur nga aftësitë e rrezikshme të këtyre sistemeve të AI?
-Nëse modelet tona të AI janë vjedhur, si mund t’i shfrytëzojnë aktorët e këqij?
Aleksander Madry, ish-profesor i MIT dhe anëtar i laboratorit CSAIL, është emëruar të drejtojë ekipin e Përgatitjes që do të merret me të. Ekipi do të studiojë çdo rrezik të qenësishëm në fusha të tilla si siguria kibernetike, kërcënimet kimike, biologjike, radiologjike ose bërthamore, riprodhimi dhe përshtatja autonome.
Sfida e Përgatitjes e përmendur në fillim ofron 25,000 dollarë (në kredi për t’u shpenzuar në API-të e OpenAI) për një maksimum prej dhjetë propozimesh të dobishme për identifikimin e zonave më pak të dukshme të rrezikut për t’u marrë parasysh dhe ndërhyrë. Më shumë informacion mund të gjeni në faqen e dedikuar.
Sigurisht që nuk është hera e parë që një kompani e përfshirë drejtpërdrejt në sektorin e inteligjencës artificiale ka lëshuar një paralajmërim për pasojat e mundshme katastrofike që vijnë nga zhvillimi i pakontrolluar i modeleve dhe algoritmeve. Edhe institucionet kanë marrë masa. Ky është rasti i Komisionit Evropian, i cili kohët e fundit u kërkoi shteteve anëtare të kryejnë një vlerësim të kujdesshëm të kërcënimit.
/ZoneX Albania – www.zonex.al