A është ky fillimi i fundit të privatësisë?
Proteksionistët e të dhënave në Itali i kanë hedhur një vështrim kritik AI ChatGPT dhe kanë arritur në përfundimin se siguria e të dhënave të përdoruesve dhe mbrojtja e të miturve janë të pamjaftueshme. Si rezultat, faqja e internetit u ndalua menjëherë dhe kompania u kërcënua me ndëshkime të rënda nëse nuk do të ndërmerreshin menjëherë veprime korrigjuese. Shqetësimet e avokatëve të privatësisë nënvizojnë nevojën për të siguruar standardet më të larta të sigurisë dhe masat mbrojtëse të përshtatshme gjatë zhvillimit dhe zbatimit të teknologjive të IA.
Më 20 mars, ChatGPT, AI i bazuar në tekst, përjetoi një moment të shkurtër dobësie që lejoi palët e treta të aksesonin shkurtimisht titujt e argëtimit. Siç tha themeluesi dhe CEO i OpenAI, Sam Altman në Twitter, “Na vjen shumë keq për problemin serioz të shkaktuar nga një kod me gabime në një bibliotekë me burim të hapur në ChatGPT”.
Pa dyshim, Altman nuk e kishte idenë për përmasat e këtij “problemi të madh”. Megjithatë, autoriteti italian i mbrojtjes së të dhënave ndërhyri fuqishëm dhe bllokoi faqen në mbarë vendin. ChatGPT u dënua zyrtarisht për shkelje të mbrojtjes së të dhënave dhe mbrojtjes së të miturve. Një ndëshkim që Altman sigurisht nuk e priste.
Ne i themi Arrivederci ChatGPT-së në Itali
Operatorët e ChatGPT reaguan me shpejtësi ndaj kërkesës së italianëve. Altman shkroi në Twitter: “Sigurisht, ne i kemi kushtuar vëmendjen e duhur qeverisë italiane dhe kemi ndërprerë ChatGPT-në tonë në Itali – megjithëse jemi të bindur se jemi në përputhje me të gjitha udhëzimet për mbrojtjen e të dhënave. Si një tifoz i Italisë, unë tashmë po e pres me padurim për ta vizituar përsëri së shpejti këtë vend të mrekullushëm!”
Proteksionistët e të dhënave kritikojnë se përdoruesit e ChatGPT nuk janë mjaftueshëm të informuar për përpunimin e të dhënave të tyre. Akuza është se OpenAI mbledh të dhëna “masive” për të trajnuar sistemet e AI pa u siguruar ligjërisht. Gjithashtu, autoriteti ankohet se verifikimi i moshës së përdoruesve në ChatGPT është i pamjaftueshëm, që do të thotë se të miturit marrin përgjigje të papërshtatshme për moshën e tyre. Ne duhet të përpiqemi të sigurojmë privatësinë dhe sigurinë e përdoruesve tanë dhe të sigurojmë që teknologjia jonë të mos ketë zona gri ligjore.
Megjithëse OpenAI duhej të mbyllte softuerin, ky është vetëm hapi i parë në një seri veprimesh që kompania duhet të ndërmarrë tani. Brenda 20 ditëve, OpenAI duhet të korrigjojë kursin dhe të jetë transparent për hapat e ndërmarrë. Dështimi për ta bërë këtë mund të rezultojë në një gjobë deri në 20 milionë euro ose katër për qind të shitjeve vjetore globale, të cilat autoritetet italiane mund të vendosin. Megjithëse OpenAI mund të apelojë, kompania nuk mund të shmangte bllokimin e përkohshëm të softuerit për momentin.
Detoksifikimi dixhital në vendin e punës: pse ne duhet të ngadalësojmë
Në debatet e nxehta në internet për ndalimin e OpenAI, shumë përdorues citojnë skenarë shqetësues: a do të ndalohet në të vërtetë ChatGPT përgjithmonë nga Italia për shkak të kushteve “absurde”? Dhe a mundet ky precedent të krijojë një precedent diku tjetër – një kërcënim për zhvillimin teknologjik? Ndjenja mbetet e tensionuar dhe mbetet për t’u parë se çfarë ndikimi do të ketë vendimi në terma afatgjatë.
Aktualisht, rritja mbresëlënëse e teknologjisë AI duket se po pëson një ndryshim të mundshëm. Në një letër të hapur, shkencëtarë kryesorë dhe figura të shquara të teknologjisë si Elon Musk kanë kërkuar që zhvillimi i aplikacioneve të ndryshme të AI të pezullohet për të paktën gjashtë muaj. Qëllimi i këtij pushimi është të krijojë kushte kornizë për zhvillimin e ardhshëm të programeve inteligjente së bashku me ekspertë të pavarur dhe përfaqësues politikë. Incidenti i fundit në Itali ilustron nevojën e këtyre masave. Një qasje kreative dhe e menduar ndaj temës tani është më e rëndësishme se kurrë.
Përparimet befasuese në inteligjenca të ndryshme artificiale po çojnë gradualisht në një problem të dukshëm. Javën e kaluar, një foto e Papës i veshur me një pallto dimërore, për të cilën shumë besonin se ishte e vërtetë, u bë virale. Sidoqoftë, shpejt doli se softueri ishte përgjegjës për imazhin – dhe se Papa nuk ishte veshur aq në modë sa dukej. Edhe pse nuk pati pasoja serioze në këtë rast, ky incident ilustron në mënyrë mbresëlënëse se sa e lehtë është për AI të mashtrojnë njerëzit.