"Apple”ın həmtəsisçisi Stiv Voznyak, Britaniya şahzadəsi Harri, Nobel mükafatlı süni intellekt tədqiqatçısı Cefri Hinton və ümumilikdə 800-dən çox tanınmış ictimai fiqur süni intellektin "süper zəka” səviyyəsinə çatmasına yönəlmiş bütün işlərin qadağan olunmasını tələb edən birgə bəyanat imzalayıb.
Qayanrinfo xəbər verir ki, "Financial Times”ın məlumatına görə, bəyanatda belə qeyd olunub:
"Süper zəkanın inkişafına dair qadağa yalnız bu prosesin təhlükəsiz və nəzarət olunan şəkildə həyata keçirilə biləcəyinə dair geniş elmi razılıq və güclü ictimai dəstək formalaşdıqdan sonra qaldırılmalıdır".
İmzalanan sənəddə müxtəlif sahələrdən və siyasi baxışlardan olan şəxslər yer alıb. Onların arasında keçmiş Tramp müşaviri Stiv Bennon, ABŞ Silahlı Qüvvələrinin keçmiş qərargah rəisi Mayk Mallen və musiqiçi Will.i.am kimi adlar da diqqət çəkir. Bəyanatın təşəbbüskarı olan "Future of Life Institute” ("Həyatın Gələcəyi İnstitutu”) bildirib ki, süni intellektin inkişaf tempi artıq cəmiyyətin anlama sürətini xeyli qabaqlayır.
İnstitutun direktoru Entoni Agirre açıqlamasında deyib: "Bir nöqtədə süni intellekt şirkətləri, onların qurucuları və onları yönləndirən iqtisadi sistem bu yolu bizim adımızdan seçdi. Amma heç kimə "biz doğrudan da bunu istəyirikmi" sualı verilmədi".
Süni ümumi zəka (AGI) dedikdə, maşınların insan kimi düşünmə və qərar vermə qabiliyyəti nəzərdə tutulur. Süper zəka isə bu səviyyəni aşaraq, insanın ixtisas tələb edən sahələrdəki bacarıqlarını belə geridə qoyan süni intellekt formasıdır. Mütəxəssislər hesab edir ki, bu vəziyyət insanlıq üçün mövcudluq təhlükəsi yarada bilər.
Buna baxmayaraq, "OpenAI”, "Meta” və digər texnologiya nəhəngləri yeni süni intellekt modelləri və onları dəstəkləyəcək məlumat mərkəzləri üçün milyardlarla dollar sərmayə yatırır. "Meta” rəhbəri Mark Zukerberq süper zəkanın artıq "görünən üfüqdə” olduğunu bildirərkən, "X” (keçmiş "Twitter”) şirkətinin rəhbəri İlon Mask "süper zəka artıq real vaxtda formalaşır” deyə açıqlama verib. Mask daha əvvəl də süni intellektin təhlükələri barədə dəfələrlə xəbərdarlıq etmişdi. "OpenAI” rəhbəri Sem Altman isə süper zəkanın 2030-cu ilə qədər yaranacağını proqnozlaşdırıb. Lakin maraqlıdır ki, bu üç şəxs və onların şirkətləri bəyanatı imzalayanlar arasında yer almayıb.
Bu, süni intellektin tənzimlənməsi ilə bağlı ilk çağırış deyil. Keçən ay 10 Nobel mükafatı laureatı və 200-dən çox tədqiqatçı süni intellektin doğura biləcəyi risklərə qarşı "qırmızı xətt” çağırışı etmişdi. Lakin həmin sənəd "süper zəka”dan çox, hazırkı dövrdəki təhlükələr – kütləvi işsizlik, iqlim böhranı və insan haqları pozuntularına diqqət çəkirdi.
Bəzi ekspertlər isə başqa bir riskə – süni intellekt "balonu”nun yaranmasına diqqət çəkirlər: texnologiyanın həddindən artıq şişirdilmiş gözləntilərlə böyüyüb daha sonra iqtisadi sabitliyi sarsıdacaq şəkildə "partlaya” biləcəyindən ehtiyatlanırlar.
Aydın
Şərhlər