Xəbər lenti

ChatGPT təhlükəlidir: 2026-cı ildə bir çatbota deməməli olduğunuz 5 şey
Texnologiya 13:23 03.01.2026

ChatGPT təhlükəlidir: 2026-cı ildə bir çatbota deməməli olduğunuz 5 şey

ChatGTP kimi süni intellektə (Al) əsaslanan çatbotlar gündəlik həyatın ayrılmaz hissəsinə çevrilib. İnsanlar onlardan suallara cavab tapmaq, mətnlər tərtib etmək, ideyalarla bağlı kömək almaq və hətta məlumatların təhlili üçün istifadə edirlər. Lakin Al ilə ünsiyyət nə qədər aktivləşirsə, bir o qədər də yadda saxlamaq vacibdir ki, bu platformalar şəxsi və ya məxfi məlumatlar üçün təhlükəsiz anbar deyil. 

Qaynarinfo xəbər verir ki, bu barədə "SlashGear" yazır.

ChatGTP hər gün təxminən 2,5 milyard sorğunu cavablandırır və daxili təhlükəsizlik mexanizmlərinə baxmayaraq, daxil etdiyiniz məlumatların sızması və nəzarətsiz istifadəsi ilə bağlı real risklər qalır. Texnologiya daim inkişaf edir, lakin ehtiyatlılıq hələ də zəruridir.

Budur, ChatGTP və ya istənilən digər "ağıllı” çatbota heç vaxt deməməli olduğunuz beş məqam.

Şəxsi məlumatlar

Bəzi istifadəçilər CV hazırlamaq və ya oxşar məqsədlər üçün bilmədən tam adlarını, ünvanlarını, sənəd nömrələrini və əlaqə məlumatlarını daxil edirlər. Bu isə məlumat sızması və ya model bazalarına kənar şəxslərin çıxışı halında ciddi nəticələrə səbəb ola bilər.

Bot "dost kimi” cavab verirmiş kimi təsir bağışlasa belə, bu məlumatlar sistem tərəfindən emal oluna və gözlədiyinizdən fərqli şəkildə istifadə edilə bilər.

Maliyyə detalları

ChatGTP-dən maliyyə məsləhətçisi kimi istifadə edib aylıq büdcə planı və ya hətta pensiya strategiyası hazırlamaq olar. Ancaq bank hesabları, kredit kartları, investisiyalar və ya vergi ilə bağlı konkret məlumatlar Al-çata daxil edilməməlidir.

Mütəxəssislər vurğulayırlar ki, məlumatlar təqdim edildikdən sonra onların taleyini izləmək mümkün deyil. Maliyyə məlumatlarının daxil edilməsi fırıldaqçılıq sxemlərindən tutmuş fərdi məlumat sızmalarına, fişinq hücumlarına və qurğuların zərərli proqramlarla yoluxmasına qədər ciddi risklər yarada bilər.

Tibbi məlumatlar

Son sorğulara görə, hər altı yetkin şəxsdən biri ayda ən azı bir dəfə simptomların izahı və ya müalicə ilə bağlı ChatGTP-yə müraciət edir. Gənclər arasında bu göstərici hər dörd müraciətdən birinə çatır.

Mütəxəssislər bunu son dərəcə ehtiyatla etməyə çağırır və xatırladırlar ki, bu sistem həkim deyil və mütəxəssis məsləhətini əvəz etmir. Maliyyə məlumatlarında olduğu kimi, tibbi məlumatların təqdim edilməsindən sonra onların necə istifadə olunacağını bilmək mümkün deyil.

İşlə bağlı materiallar

Sənədlər, hesabatlar və şirkət strategiyaları – yəni işəgötürənə, müştərilərə və ya ictimaiyyət üçün nəzərdə tutulmayan cari layihələrə aid bütün materiallar bu kateqoriyaya daxildir.

Nəşrdə qeyd olunur ki, süni intellekt mətnlərin redaktəsi və ya sənədlərin qısa xülasəsi üçün rahat alət kimi görünsə də, bu, lazımsız risklər yarada bilər.

Hər hansı qeyri-qanuni sorğular

Bu cür suallardan təkcə təhlükəsizlik baxımından deyil, hüquqi səbəblərə görə də çəkinmək lazımdır. Cinayət törətmək, dələduzluq fəaliyyəti və ya manipulyasiya ilə bağlı sorğular servislərin bloklanmasına və hətta məsuliyyətə səbəb ola bilər. Çünki platformalar qanunlara riayət etməyə borcludur və hüquq-mühafizə orqanlarının tələbi ilə məlumatları təqdim edə bilərlər.

"OpenAl" şirkətinin rəhbəri Sem Altman da xəbərdarlıq edir ki, ChatGTP ilə yazışmalar real mütəxəssislə aparılan söhbətlər kimi qanunla qorunmur və məhkəmə araşdırması zamanı istifadəçi yazışmaları məhkəmə qərarı ilə təqdim edilə bilər.

Buna görə də süni intellektlə ünsiyyətdə, xüsusilə şəxsi və peşəkar həyatınıza aid mövzularda hər zaman ehtiyatlı olmaq tövsiyə olunur.

Aydın
--> -->