Fevralın 10-da Kanadanın Tambler Ric şəhərində baş verən silahlı hücum zamanı ağır yaralanan 12 yaşlı məktəbli Maya Gebalanın ailəsi OpenAI şirkətini məhkəməyə verib.
Musavat.com xəbər verir ki, ailə iddia ərizəsində göstərib ki, şübhəli Cessi van Rutselaar hücum planlaşdırdığını ChatGPT ilə müzakirə etsə də, şirkət bu barədə hüquq-mühafizə orqanlarını xəbərdar etməyib. Hücum nəticəsində beş azyaşlı uşaq və şübhəlinin anası daxil olmaqla səkkiz nəfər həyatını itirib. Maya Gebala baş və boyun nahiyəsindən aldığı güllə yaraları səbəbindən hələ də xəstəxanadadır.
İddia ərizəsində göstərilir ki, şübhəli 18 yaşına çatmadan ChatGPT hesabı açaraq silahlı zorakılıqla bağlı ssenarilər planlaşdırıb. OpenAI əməkdaşları şübhəlini ciddi risk kimi qiymətləndirərək, məlumatın Kanada polisinə ötürülməsini tövsiyə edib, lakin şirkət yalnız hesabı bağlamaqla kifayətlənib. Şübhəli daha sonra yeni hesab açaraq planlarına davam edə bilib.
Open AI-dən hadisələri “danışılmaz faciə” adlandırıblar və gələcəkdə belə halların qarşısını almaq üçün hökumət və hüquq-mühafizə orqanları ilə əməkdaşlığa sadiq olduqlarını bildiriblər. Həmçinin Kanadanın süni intellekt naziri Evan Solomon və Britaniya Kolumbiyasının baş naziri David Ebi ilə virtual görüş keçirib, potensial zərərli qarşılıqlı təsirlərin polisə məlumat verilməsi protokollarının gücləndirilməsinə söz veriblər.
OpenAI bildirib ki, artıq psixi sağlamlıq və davranış mütəxəssislərinin dəstəyi ilə riskli halları qiymətləndirmək və polisə məlumat ötürülməsini çevik şəkildə həyata keçirmək üçün sistemləri təkmilləşdirir. Şirkət həmçinin Kanada hüquq-mühafizə orqanları ilə birbaşa əlaqə nöqtəsi yaradacağını və gələcək mümkün hadisələri real zamanlı izləyə biləcəyini açıqlayıb.
Kanadanın süni intellekt naziri Evan Solomon isə bildirib ki, qanunvericilər şirkətin protokollarını təkmilləşdirmək niyyətini görsələr də, “praktik icra planı hələ təqdim olunmayıb”. Ekspertlər hesab edirlər ki, bu məhkəmə işi süni intellekt platformalarının istifadəçi davranışına görə hüquqi məsuliyyəti məsələsində presedent rolunu oynaya bilər. Əgər iddialar qəbul olunarsa, AI şirkətləri təhlükəli istifadəçilərlə bağlı məlumatları daha tez və birbaşa hüquq-mühafizə orqanlarına ötürmək məcburiyyətində qala bilər.