30 Mart 2024 15:00
Cümə günü “OpenAI” süni intellekt şirkəti dinləyiciləri aldatmaq üçün nəzərdə tutulan səs saxtakarlığının qarşısını almaq məqsədilə etibarlı təhlükəsizlik tədbirləri görülənə qədər prosesi ciddi nəzarətdə saxlamağı nəzərdə tutan səs klonlama alətini təqdim edib.
Metbuat.az AZƏRTAC-a istinadla xəbər verir ki, alətin kiçikmiqyaslı testinin nəticələrini paylaşan “OpenAI” bloq yazısında “Səs mühərriki” adlı modelin mahiyyətcə kiminsə nitqini 15 saniyəlik səs nümunəsi əsasında təkrarlaya biləcəyini qeyd edib.
“Biz başa düşürük ki, insanların səsinə bənzəyən nitq yaratmağın ciddi riskləri var və bu, xüsusilə ABŞ-da seçki ilində diqqət mərkəzindədir”, - deyə San-Fransiskoda yerləşən şirkət bildirib. “OpenAI” əlavə edib: “Biz prosesin gedişində ictimai rəylərin nəzərə alınmasını təmin etmək üçün hökumət, media, əyləncə, təhsil, vətəndaş cəmiyyəti və digər sahələrdən olan ABŞ və beynəlxalq tərəfdaşlarla əlaqə saxlayırıq”.
Dezinformasiya tədqiqatçıları ucuz, istifadəsi asan və izlənilməsi çətin olan səs klonlama alətləri sayəsində əsas seçki ilində süni intellektlə işləyən tətbiqlərin geniş şəkildə sui-istifadəsindən qorxurlar. “OpenAI”, öz növbəsində, bu problemləri qəbul edərək, “sintetik səsdən sui-istifadə potensialına görə daha geniş versiyaya ehtiyatlı və məlumatlı yanaşdığını” bildirib.
Şirkətin ehtiyatlı açıqlaması ABŞ Prezidenti Cozef Baydenin uzunmüddətli prezidentlik kampaniyası üçün işləyən siyasi məsləhətçinin onun səsini təqlid edən robot zəngin arxasında olduğunu etiraf etməsindən bir neçə ay sonra baş verib. Minnesotalı konqresmen Din Fillips bildirib ki, bir əməliyyatçının beyni olan süni intellekt tərəfindən edilən zəng Baydenin insanları yanvar ayında Nyu-Hempşirdə keçirilən ilkin seçkidə səs verməməyə çağıran səsə bənzəyirdi. Bu insident 2024-cü ildə Ağ ev uğrunda yarışda, eləcə də bu il dünyanın digər əsas seçkilərində süni intellektlə işləyən dərin saxta dezinformasiyadan qorxan ekspertlər arasında təşviş yaradıb.
“OpenAI” bildirib ki, “Səs mühərriki”ni sınaqdan keçirən tərəfdaşlar alətdən istifadə edərək səsi təkrarlanan hər hansı şəxsin açıq və məlumatlı razılığını tələb edən qaydalar üzrə razılaşıblar. Şirkət əlavə edib ki, eşidilən səslərin süni intellektlə yaradıldığı zaman auditoriyaya məlumat verilməlidir. “Biz “Voice Engine” tərəfindən yaradılan hər hansı səsin mənşəyini izləmək üçün su nişanı, həmçinin onun necə istifadə olunmasının proaktiv monitorinqi də daxil olmaqla, bir sıra təhlükəsizlik tədbirləri həyata keçirmişik, -deyə “OpenAI” vurğulayıb.