Silah kimi pilotsuz təyyarələr və özünü idarə edən avtomobillər: niyə hakerlərdən qorxmalıyıq
Silah kimi pilotsuz təyyarələr və özünü idarə edən avtomobillər: niyə hakerlərdən qorxmalıyıq
Anonim

Əgər süni intellekt yanlış əllərə keçərsə, sivil dünya xaosa qərq ola bilər.

Silah kimi pilotsuz təyyarələr və özünü idarə edən avtomobillər: niyə hakerlərdən qorxmalıyıq
Silah kimi pilotsuz təyyarələr və özünü idarə edən avtomobillər: niyə hakerlərdən qorxmalıyıq

Heç kim inkar etməyəcək ki, süni intellekt həyatımızı növbəti səviyyəyə qaldıra bilər. Süni intellekt insanların gücü çatmayan bir çox problemləri həll etməyə qadirdir.

Bununla belə, çoxları inanır ki, super kəşfiyyat bizi mütləq SkyNet kimi məhv etmək istəyəcək və ya Portal oyunundan GLADoS kimi insanlar üzərində təcrübələr aparmağa başlayacaq. İroni odur ki, yalnız insanlar süni intellekti yaxşı və ya pis edə bilər.

Niyə süni intellekt ciddi təhlükə ola bilər?
Niyə süni intellekt ciddi təhlükə ola bilər?

Yel Universiteti, Oksford, Kembric və OpenAI-dan olan tədqiqatçılar süni intellektdən sui-istifadə ilə bağlı hesabat dərc ediblər. Burada deyilir ki, əsl təhlükə hakerlərdəndir. Zərərli kodun köməyi ilə onlar AI-nin nəzarəti altında avtomatlaşdırılmış sistemlərin işini poza bilərlər.

Tədqiqatçılar yaxşı niyyətli texnologiyaların zərər görəcəyindən qorxurlar. Məsələn, müşahidə avadanlığından təkcə terrorçuları tutmaq üçün deyil, həm də adi vətəndaşları cəsusluq etmək üçün istifadə etmək olar. Tədqiqatçıları qida çatdıran kommersiya pilotsuz təyyarələri də narahat edir. Onları tutmaq və partlayıcı bir şey əkmək asandır.

Süni intellektin dağıdıcı istifadəsinin başqa bir ssenarisi özü idarə olunan avtomobillərdir. Bir neçə sətir kodu dəyişdirmək kifayətdir və maşınlar təhlükəsizlik qaydalarına məhəl qoymağa başlayacaqlar.

Niyə süni intellekt ciddi təhlükə ola bilər?
Niyə süni intellekt ciddi təhlükə ola bilər?

Alimlər təhlükənin rəqəmsal, fiziki və siyasi ola biləcəyinə inanırlar.

  • Artıq süni intellekt müxtəlif proqram kodlarının zəifliklərini öyrənmək üçün istifadə olunur. Gələcəkdə hakerlər istənilən müdafiədən yan keçəcək bot yarada bilərlər.
  • Süni intellektin köməyi ilə insan bir çox prosesləri avtomatlaşdıra bilər: məsələn, dron dəstəsini və ya bir qrup avtomobili idarə etmək.
  • DeepFake kimi texnologiyaların köməyi ilə internetdə botlardan istifadə edən dünya liderləri haqqında yalan məlumatlar yayaraq dövlətin siyasi həyatına təsir etmək mümkündür.

Bu qorxulu nümunələr indiyə qədər yalnız bir fərziyyə olaraq mövcuddur. Tədqiqatın müəllifləri texnologiyadan tamamilə imtina etməyi təklif etmirlər. Bunun əvəzinə, onlar hesab edirlər ki, süni intellekt sənayesi hələ körpəlikdə olarkən milli hökumətlər və böyük şirkətlər təhlükəsizliyin qayğısına qalmalıdırlar.

Siyasətçilər süni intellektin yaradılması və istifadəsini effektiv şəkildə tənzimləmək üçün texnologiyanı öyrənməli və bu sahədə ekspertlərlə işləməlidirlər.

Tərtibatçılar, öz növbəsində, yüksək texnologiyaların yaratdığı təhlükəni qiymətləndirməli, ən pis nəticələri qabaqcadan görməli və dünya liderlərini bu barədə xəbərdar etməlidirlər. Hesabat süni intellektin inkişaf etdiricilərini digər sahələrdə təhlükəsizlik mütəxəssisləri ilə əməkdaşlıq etməyə və bu texnologiyaların təhlükəsizliyini təmin edən prinsiplərin süni intellektin qorunması üçün istifadə oluna biləcəyinə baxmağa çağırır.

Tam hesabat problemi daha ətraflı təsvir edir, lakin nəticə ondan ibarətdir ki, AI güclü bir vasitədir. Bütün maraqlı tərəflər yeni texnologiyanı öyrənməli və onun cinayət məqsədləri üçün istifadə edilmədiyinə əmin olmalıdır.

Tövsiyə: