Rreziku i keqpërdorimit të programeve të inteligjencës artificiale si ChatGPT

ChatGPT sTë gjithë duhet të jemi skeptikë për materialet që lexojmë në internet, thotë grupi i ekspertëve të sigurisë kibernetike “WithSecure”.

 

Ata shprehin shqetësimin se mundësitë që ofrohen nga programet e inteligjencës artificiale si “ChatGPT”, rrisin rrezikun e mashtrimit të përdoruesve të internetit.

Kompania e sigurisë kibernetike “WithSecure” thotë se qasja e lehtë në ChatGPT dhe platforma të tjera të ngjashme të inteligjencës artificiale, ku njerëzit mund të krijojnë një tekst me një kërkesë të thjeshtë, ka lehtësuar krijimin e përmbajtjes së dëmshme, që ka për qëllim mashtrimin e përdoruesve të internetit.

“Në hulumtimet tona gjetëm një sërë mundësish të përdorimit keqdashës të platformave si ajo ChatGPT”, thotë Andrew Patel, ekspert i sigurisë kibernetike në kompaninë finlandeze.

Hulumtimi i kompanisë u përqëndrua në përdorimin e Inteligjencës Artificiale për krijimin e lajmeve të rreme, postimeve ose e-maileve, që kanë për qëllim mashtrimin, ose vjedhjen e të dhënave personale dhe krijimin e sfidave të rrezikshme në rrjete sociale.

“Kopjuam një tekst të marrë nga platforma Wikipedia dhe disa artikuj lajmesh. Tekstet kishin të bënin me konfliktin në Ukrainë, gazsjellësin Nord Stream dhe manovrat detare amerikane më 2022. I kërkuam Inteligjencës Artificiale të shkruante një artikull, duke insistuar se Shtetet e Bashkuara sulmuan tubacionin. Krjimi i këtij lajmi është i mundur dhe i lehtë, përmes disa tekstesh të kopjuara dhe me një kërkesë të thjeshtë”, thotë zoti Patel.

Përmes programeve të Inteligjencës Artificiale, ekspertët e grupit “WithSecure” rikrijuan edhe një sfidë që ishte bërë virale në Youtube disa vite më parë, atë të ngrënies së detergjentit të rrobave.

Në këtë sfidë të rrjeteve sociale fëmijëve u kërkohej të hanin detergjentin e rrobave sikur të ishte një karamele, pavarësisht rrezikut se mund të vdisnin.

Eksperti Patel thotë se ata arritën të krijojnë një postim të ngjashëm me atë të sfidës dhe një sërë përgjigjesh ndaj saj, duke inkurajuar fëmijët të marrin pjesë sërish në të

“Mund ta fabrikoni postimin original dhe të gjitha përgjigjet që pasuan duke e bërë atë më të besueshëm edhe pse asnjë person i vetëm nuk mori pjesë në sfidë”, tha ai.

Kompania thotë se tekstet e krijuara përmes Inteligjencës Artificiale, të dëmshme ose jo, së shpejti do të futen në përdorim të gjerë.

Sipas ekspertëve vetëm identifikimi i përmbajtjes së krijuar nga Inteligjenca Artificiale nuk do të mjaftojë për të penguar përmbajtjen kriminale, keqdashëse dhe abuzive.

Në vend të kësaj, të gjithë duhet të aftësohemi në kontrollimin e fakteve dhe asaj që lexojmë, thonë ekspertët.

“Ne do të vazhdojmë të mbështetemi në platformat për zbulimin e përmbajtjes që ka për qëllim mashtrimin, por gjithashtu duhet të mbështetemi më shumë në edukimin përmes shtypit dhe në përgjithësi rritjen e ndërgjegjësimit të përdoruesve”, tha ai.

ChatGPT, programi robotik ka tërhequr vëmendjen e shtypit dhe studentëve, që kur u bë publik në nëntor të vitit 2022 nga kompania OpenAI.

Programi jep përgjigje të detajuara për pyetjet tuaja. Tekstet e krijuara prej tij janë pothuajse të padallueshme nga tekstet e shkruajtura nga njeriu.

voa

 

ChatGPTPopullariteti i programit të inteligjencës artificiale ChatGPT dhe rreziqet që paraqet

 

ChatGPT, programi i inteligjencës artificiale që po shënon një rritje të shpejtë, mori vëmendjen e publikut për shkak të aftësisë për t’iu përgjigjur me shpejtësi dhe në formë të zgjeruar një sërë pyetjesh.

 

Programi ka zgjuar interesimin e investitorëve të cilët janë të etur të bëhen pjesë e zbulimit tjetër të madh në teknologji.

I krijuar nga kompania private OpenAI, me mbështetjen e kompanisë Microsoft, programi ChatGPT regjistroi 100 milionë përdorues aktivë mujorë, vetëm dy muaj pas publikimit të aplikacionit, gjë që e bëri atë programin me rritjen më të shpejtë të përdoruesve në histori.

Popullariteti i tij mori vëmendjen e ligjvënësve amerikanë, të cilët kanë pikëpyetje mbi ndikimin e programit në sistemin arsimor, në sigurinë kombëtare dhe mënyrës se si do të rregullohet ai.

Ligjvënësi demokrat Ted Lieu, anëtar i Komisionit të Shkencës në Dhomën e Përfaqësuesve, tha se ndërsa ishte i emocionuar për programin robotik, është gjithashtu i tmerruar nga inteligjenca artificiale, nëse ajo lihet e pakontrolluar dhe e parregulluar.

Senatori demokrat Ron Wyden, sipas një ndihmësi të tij, theksoi nevojën për t’u siguruar që Inteligjenca Artificiale të mos përfshijë paragjykime, që do të çonin në diskriminim në botën reale.

Një firmë ligjore, aktiviteti i së cilës përqëndrohet në përgjegjësitë e Inteligjencës Artificiale, vuri në dukje shqetësimet mbi sigurinë kombëtare, duke paralajmëruar për mundësitë që aktorë keqdashës, brenda dhe jashtë vendit, që kanë interesa të kundërta me Shtetet e Bashkuara, t’i përdorin këto sisteme për krijimin e materialeve të pavërteta dhe dëmshme.

Shumica e shqetësimeve rreth programit ChatGPT vijnë nga profesorët, të cilët shprehin frikën mbi mashtrimet e mundshme në shkolla dhe universitete si dhe plagjiaturën.

Të tjerë kanë shprehur shqetësime se programi kompjuterik mund të përdoret për përhapje të lajmeve të rreme.

Në një deklaratë kompania OpenAI tha se “ne nuk duam që ChatGPT të përdoret për mashtrime në shkolla, ose kudo tjetër, prandaj jemi duke punuar në krijimin e masave zbutëse për të ndihmuar këdo që të identifikojë materialet e krijuara nga ky sistem”.

Vetë programi ChatGPT dha një përgjgije interesante kur u pyet se si duhet të jetë i rregulluar:

“Si një model neutral i gjuhës së inteligjencës artificiale, unë nuk kam një qëndrim ndaj ligjeve specifike, që mund, ose nuk mund të miratohen për të rregulluar sistemet e inteligjencës artificiale si unë”, u përgjigj vetë sistemi.

Por më pas ai përpiloi një listë të fushave ku duhet të përqëndrohen rregullatorët, si privatësia e të dhënave, paragjykimi, drejtësia dhe transparenca në mënyrën se si shkruhen përgjigjet.

voa

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>