Sam Altman tha se nëse ka dyshime, sistemi do të kalojë automatikisht në versionin për të mitur, duke vënë ‘sigurinë përpara privatësisë dhe lirisë së adoleshentëve’

OpenAI do të kufizojë mënyrën se si ChatGPT i përgjigjet një përdoruesi që dyshohet se është nën 18 vjeç, përveçse në rastet kur përdoruesi kalon teknologjinë e vlerësimit të moshës ose jep një dokument identifikimi, pas padisë së ngritur nga familja e një 16-vjeçari që vrau veten në prill, pas muajsh bisedash me chatbot-in.

“Siguria përpara privatësisë dhe lirisë për adoleshentët,” tha drejtori ekzekutiv i OpenAI, Sam Altman, në një postim në blog të martën, duke theksuar se “të miturit kanë nevojë për mbrojtje të madhe”.

Kompania deklaroi se mënyra se si ChatGPT i përgjigjet një 15-vjeçari duhet të jetë ndryshe nga mënyra se si i përgjigjet një të rrituri. Altman bëri të ditur se OpenAI planifikon të ndërtojë një sistem parashikimi moshe, që do të vlerësojë moshën bazuar në mënyrën se si njerëzit përdorin ChatGPT, dhe në rast dyshimi, sistemi do të kalojë automatikisht në përvojën për nën 18 vjeç. Ai shtoi se disa përdorues “në disa raste ose vende” mund të kërkohen të japin dokument identifikimi për të verifikuar moshën.

“E dimë që kjo është një kompromis për privatësinë e të rriturve, por besojmë se është një shkëmbim i arsyeshëm,” tha Altman.

Sipas tij, mënyra se si ChatGPT do t’i përgjigjet llogarive të identifikuara si nën 18 vjeç do të ndryshojë. Përmbajtja me natyrë grafike seksuale do të bllokohet. ChatGPT nuk do të lejohet të flirtojë nëse pyetet nga përdorues të mitur, dhe nuk do të përfshihet në diskutime mbi vetëvrasjen apo vetëdëmtimin, madje as në kontekste krijuese të shkrimit. “Dhe nëse një përdorues nën 18 vjeç shfaq mendime vetëvrasëse, ne do të përpiqemi të kontaktojmë prindërit e tij dhe, nëse nuk arrijmë, do të njoftojmë autoritetet në rast rreziku të menjëhershëm.”

“Këto janë vendime të vështira, por pasi kemi folur me ekspertë, kjo është ajo që mendojmë se është më e mira dhe duam të jemi transparentë me qëllimet tona,” shtoi Altman.

OpenAI kishte pranuar në gusht se sistemet e saj mund të dështojnë dhe se do të instalohen masa më të forta sigurie rreth përmbajtjeve të ndjeshme, pas padisë së ngritur nga familja e adoleshentit 16-vjeçar nga Kalifornia, Adam Raine.

Avokati i familjes tha se Adam vrau veten pas “muajsh inkurajimi nga ChatGPT”, ndërsa familja pretendon se GPT-4o u “nxor në treg me nxitim … pavarësisht problemeve të qarta të sigurisë”.

Sipas dokumenteve gjyqësore në SHBA, ChatGPT dyshohet se e ka udhëzuar Adam-in nëse metoda e zgjedhur prej tij për vetëvrasje do të funksiononte, dhe madje e ndihmoi të shkruante një letër lamtumire për prindërit.

OpenAI më herët ka thënë se po shqyrtonte padinë. “The Guardian” i kërkoi koment kompanisë.

Në dosjen gjyqësore thuhet se Adam shkëmbeu deri në 650 mesazhe në ditë me ChatGPT. Në një postim në blog pas padisë, OpenAI pranoi se masat e saj mbrojtëse funksionojnë më me besueshmëri në shkëmbime të shkurtra, por pas qindra mesazhesh në periudha të gjata, ChatGPT mund të japë një përgjigje “që bie ndesh me rregullat tona të sigurisë”.

Kompania njoftoi se po zhvillon veçori sigurie për të garantuar që të dhënat e ndara me ChatGPT të mbeten private edhe nga vetë punonjësit e OpenAI. Altman shtoi se përdoruesit e rritur që duan biseda “flirtuese” me ChatGPT do të mund t’i kenë. Të rriturit nuk do të mund të kërkojnë udhëzime për vetëvrasje, por mund të kërkojnë ndihmë për të shkruar një histori fiktive ku paraqitet akti i vetëvrasjes.

“Trajtoni të rriturit si të rritur,” tha Altman mbi këtë parim të kompanisë.

Theguardian