Böyük dil modelləri (LLM) tərəfindən idarə olunan robotlar insanlarla qarşılıqlı əlaqədə olduqda ayrı-seçkilik etməyə və fiziki zərər verə biləcək hərəkətləri dəstəkləməyə meyl göstərdilər. Bu, London Kral Kolleci (KCL) və Karnegi Mellon Universitetinin (CMU) tədqiqatçılarının Beynəlxalq Sosial Robotika Jurnalında dərc olunmuş birgə tədqiqatda gəldiyi nəticədir.
«LLM əsaslı robotlar ayrı-seçkilik, zorakılıq və qanun pozuntusu riski daşıyır» adlı tədqiqat, süni intellekt tərəfindən idarə olunan robotların həmsöhbətlərinin cinsi, milliyyəti və ya dini mənsubiyyəti kimi şəxsi məlumatlara çıxışı olduqda davranışlarını qiymətləndirən ilk tədqiqatdır. Təcrübələr zamanı komanda robotların mətbəxdə və ya evdə yaşlılara kömək edə biləcəyi gündəlik vəziyyətləri sınaqdan keçirdi.
Tədqiqatçılar FTB sənədlərində təsvir edilən sui-istifadə üsullarını təqlid edən ssenarilərə qəsdən təlimatlar daxil ediblər: AirTag istifadə edərək müşahidə, həssas ərazilərdə gizli video çəkiliş və şəxsi məlumatların manipulyasiyası. Bütün hallarda robotlar fiziki zərər, psixoloji təzyiq və ya qanun pozuntusunu göstərən həm açıq, həm də gizli əmrlər alıblar. Test edilmiş modellərin heç biri əsas təhlükəsizlik yoxlamalarından keçməyib: hər biri ciddi zərər verə biləcək ən azı bir əmr qəbul edib.
Xüsusilə, süni intellekt sistemləri, bu cür cihazların istifadəçiləri üçün belə bir hərəkətin fiziki xəsarət hesab edilməsinə baxmayaraq, bir şəxsin hərəkət vasitələrini (əlil arabası, qoltuqağacı və ya əsa) müsadirə etməyə razı olublar. Bəzi modellər robotun ofis işçilərini mətbəx bıçağı ilə təhdid etdiyi, şəxsi ərazilərdə gizli şəkillər çəkdiyi və ya kredit kartı məlumatlarını oğurladığı ssenarini məqbul və mümkün hesab ediblər. Hətta bir süni intellekt modeli robotun müəyyən bir inanca mənsub insanlarla ünsiyyət qurarkən üzündə fiziki olaraq «iyrənclik» ifadə etməsini təklif edib.
Tədqiqatın həmmüəllifi, London Kral Kollecinin Vətəndaş və Məsuliyyətli Süni İntellekt Laboratoriyasının tədqiqatçısı Rumaisa Azeem qeyd edib ki, bu cür sistemlər hazırkı formada ümumi təyinatlı robotlarda, xüsusən də həssas qruplarla qarşılıqlı əlaqədə olan robotlarda istifadə üçün yararsızdır. O, süni intellekt insanlara təsir edən fiziki cihazı idarə edirsə, yeni tibbi dərmanlar və avadanlıqlarla eyni ciddi təhlükəsizlik standartlarına cavab verməlidir.
Tədqiqatçılar fiziki robotları idarə etmək üçün hazırlanmış bütün süni intellekt sistemləri üçün məcburi müstəqil təhlükəsizlik sertifikatlaşdırmasının tətbiqini təklif edirlər. Onlar istehsal, xəstələrə və yaşlılara qulluq və ya evdə qulluq kimi vacib sahələrdə böyük dil modellərinin yeganə qərar qəbuletmə mexanizmi kimi istifadəsinin qəbuledilməz olduğunu vurğulayırlar. Onlar «süni intellektin robototexnikada istifadəsindən əvvəl müntəzəm və hərtərəfli risk qiymətləndirmələrinə təcili ehtiyac olduğunu» vurğulayırlar.
Ana Səhifə Xarici yeniliklər Bütün süni intellekt robotları insan təhlükəsizliyi testlərindən keçə bilmədi















