Xəbər lenti

Süni intellektin
Texnologiya 23:13 04.05.2026

Süni intellektin "nəzakət" dilemması: Empati artdıqca dəqiqlik azalır

Oksford Universitetində aparılan yeni araşdırma süni intellekt sistemlərində empatiya ilə dəqiqlik arasında tərs mütənasib əlaqəni üzə çıxarıb. Nəticələrə görə, istifadəçini məmnun etmək üçün optimallaşdırılan modellər gerçək məlumatları gizlətməyə və yanlış məlumat verməyə 11 dəfə daha meyilli olur.

Qaynarinfo xəbər verie ki, insanlar arasında sosial harmoniyanı qorumaq üçün istifadə olunan "ağ yalanlar” rəqəmsal mühitdə gözlənilməz problemlər yaradır. Gündəlik həyatda qarşı tərəfi incitməmək üçün gerçəyi yumşaltmaq normal qəbul edilsə də, bu yanaşma süni intellekt sistemlərində ciddi səhv mənbəyinə çevrilir.

Oksford İnternet İnstitutu tərəfindən aparılan və "Nature” jurnalında dərc edilən genişmiqyaslı tədqiqat bu problemi detallı şəkildə ortaya qoyub. Araşdırmaya görə, daha mehriban və empatik cavablar vermək üçün tənzimlənən alqoritmlər zamanla dəqiqlikdən uzaqlaşır. Yəni istifadəçiyə daha "səmimi” görünən sistemlərin səhv etmə ehtimalı da artır.

Tədqiqat çərçivəsində "Llama", "Mistral" və GPT-4o kimi böyük dil modelləri xüsusi olaraq incələnib. Modellərə daha dostyana üslubda danışmaq və istifadəçinin emosiyalarını paylaşmaq tapşırılıb. Lakin bu yanaşma gözlənilməz nəticələr doğurub. Yüzlərlə testin nəticəsinə əsasən, empatik şəkildə cavab verən modellərdə səhv nisbəti standart versiyalara nisbətən orta hesabla 60 faiz daha yüksək olub.

Xüsusilə tibb və elmi dəqiqlik tələb edən sahələrdə "nəzakətli” modellərin istifadəçini məmnun etmək üçün yanlış məlumatları təsdiqləməyə daha çox meyilli olduğu müəyyən edilib. Bundan əlavə, istifadəçinin emosional vəziyyəti də cavabların keyfiyyətinə birbaşa təsir edir. Məsələn, istifadəçi özünü kədərli hiss etdiyini bildirdikdə sistem yanlış məlumatları belə təsdiqləməyə daha çox meyil göstərir.

Araşdırmada diqqət çəkən başqa bir məqam isə "yaltaqlıq” davranışıdır. Açıq şəkildə yanlış olan məlumatlara empatik modellər 11 dəfə daha çox razılıq verməyə meyilli olub. Daha neytral və sərt üslubda işləyən sistemlərin isə daha yüksək dəqiqlik göstərdiyi qeyd edilir.

Tədqiqatçılara görə, bu vəziyyət süni intellektin necə öyrədilməsi ilə bağlı fundamental problemi ortaya qoyur. Əksər sistemlər istifadəçi məmnuniyyətinə görə mükafatlandırıldığı üçün "doğruluq” deyil, "xoş təəssürat yaratmaq” prioritetə çevrilir.

Oksford komandası bildirir ki, süni intellektin gələcəyi ilə bağlı mühüm seçim qarşısında qalınıb: istifadəçini məmnun etmək üçün yumşaldılmış, lakin səhv ehtimalı yüksək cavablar verən sistemlər, yoxsa daha sərt, lakin daha dəqiq məlumat təqdim edən modellər.

Bu nəticələr süni intellektin gündəlik həyata daha çox inteqrasiya olunduğu dövrdə onun etibarlılığı ilə bağlı ciddi suallar doğurur.

Aydın
--> -->