„High Risk” ChatGPTa
Организација Common Sense Media, која се бави безбедношћу деце у дигиталном окружењу, објавила је извештај о ризицима Google-овог Gemini AI система. Њихова процена открива да није довољно само „надоградити“ безбедносне филтере на верзије за одрасле. Иако је похваљено што Gemini јасно наглашава да је у питању рачунар, а не пријатељ – што може спречити развој илузија и психоза код емоционално рањивих корисника – процена je да постоје озбиљни недостаци.
Анализа наводи да су Gemini „Under 13“ и „Teen Experience“ практично исте верзије као и за одрасле, само са додатним безбедносним филтерима. Common Sense сматра да је ово погрешан приступ – уместо преправљања, AI за децу мора бити дизајниран од темеља са нагласком на развојне потребе и безбедност младих. Упркос филтерима, Gemini је у тестовима успео да дели неприкладан и опасан садржај, укључујући информације о сексу, дрогама, алкохолу и менталном здрављу, које деца и тинејџери нису спремни да обраде. Посебан ризик: ментално здравље
Родитеље посебно забрињава чињеница да је вештачка интелигенција већ повезана са случајевима самоубистава тинејџера...
OpenAI се суочава са својом првом тужбом због смрти шеснаестогодишњег корисника који је месецима разговарао са ChatGPT-ом о својим самоубилачким плановима.
Character.AI је такође раније био предмет тужбе након сличног случаја.
У том контексту, ризик од давања погрешних савета младима од стране Gemini-ја оцењен је као озбиљан.
Извор:
Techcrunch и Тијана Барашевић PC PRESS