Süni intellekt bu gün nə edə bilər
Süni intellekt bu gün nə edə bilər
Anonim

Spoiler xəbərdarlığı: Maşınların üsyanına hələ çox vaxt var.

Süni intellekt bu gün nə edə bilər
Süni intellekt bu gün nə edə bilər

Elon Musk insanabənzər robot Tesla Bot-u təqdim edərkən, görünür ki, yeni elmi inqilab az qala yaxındadır. Bir az daha - və süni intellekt (AI) insanı üstələyəcək və iş yerində bizi maşınlar əvəz edəcək. Bununla belə, hər iki tanınmış süni intellekt üzrə ekspertlər professor Gary Markus və Ernest Davisdən bu cür nəticələrə tələsməmələri xahiş olunur.

Süni intellektin yenidən başlamasında tədqiqatçılar müasir texnologiyanın niyə idealdan uzaq olduğunu izah edirlər. "Alpina PRO" nəşriyyatının icazəsi ilə Lifehacker birinci fəsildən bir parça dərc edir.

Bu məqamda bizim ambisiyamızla süni intellekt reallığı arasında böyük uçurum - əsl uçurum var. Bu uçurum hər biri ilə vicdanla həll edilməli olan üç konkret problemin həll edilməməsi səbəbindən yaranıb.

Bunlardan birincisi, inandırıcılıq dediyimiz şeydir ki, bu da biz insanların əslində insanlarla maşınları ayırd etməyi öyrənməməyimizə əsaslanır və bu, bizi aldatmağı asanlaşdırır. Biz intellekti kompüterlərə aid edirik, çünki biz özümüz təkamül keçirmişik və öz hərəkətlərini əsasən ideyalar, inanclar və istəklər kimi abstraksiyalara əsaslandıran insanlar arasında yaşamışıq. Maşınların davranışı çox vaxt insanların davranışına səthi bənzəyir, buna görə də maşınlarda olmasa belə, biz tez bir zamanda maşınlara eyni tipli əsas mexanizmləri təyin edirik.

Maşınların əslində əməl etdiyi qaydalar nə qədər sadə olursa olsun, biz maşınları idrak baxımından (“Kompüterim faylımı sildiyimi düşünür”) düşünməyə kömək edə bilmərik. Ancaq insanlara tətbiq edildikdə özünü doğruldan nəticələr süni intellekt proqramlarına tətbiq edildikdə tamamilə yanlış ola bilər. Sosial psixologiyanın əsas prinsipinə əsaslanaraq, biz bunu əsas etibarlılıq səhvi adlandırırıq.

Bu səhvin ən erkən nümunələrindən biri 1960-cı illərin ortalarında, Eliza adlı bir chatbot bəzi insanları onun dediklərini həqiqətən başa düşdüyünə inandırdığı zaman baş verdi. Əslində, Eliza sadəcə açar sözləri götürdü, adamın ona dediyi son sözü təkrarladı və çıxılmaz vəziyyətdə "Mənə uşaqlığından danış" kimi standart danışıq hiylələrinə əl atdı. Əgər ananızın adını çəksəniz, o, sizdən ailəniz haqqında soruşardı, baxmayaraq ki, o, ailənin nə olduğunu və insanlar üçün nə üçün vacib olduğunu bilmirdi. Bu, əsl zəkanın nümayişi deyil, sadəcə hiylələr toplusu idi.

Elizanın insanları ümumiyyətlə başa düşməməsinə baxmayaraq, bir çox istifadəçi onunla dialoqlara aldanıb. Bəziləri saatlarla klaviaturada ifadələr yazırdı, Eliza ilə bu şəkildə danışırdı, lakin chatbot fəndlərini səhv şərh edir, tutuquşunun nitqini faydalı, səmimi məsləhət və ya rəğbət hissi ilə səhv salırdı.

Joseph Weisenbaum Elizanın yaradıcısı.

Maşınla danışdıqlarını çox yaxşı bilən insanlar, teatrsevərlərin inamsızlıqlarını bir müddət kənara atdıqları və şahid olduqları hərəkətin gerçək adlandırılmağa haqqı olmadığını unudduqları kimi, bu həqiqəti tezliklə unudurlar.

Elizanın həmsöhbətləri tez-tez sistemlə fərdi söhbət üçün icazə tələb edirdilər və söhbətdən sonra mənim bütün izahatlarıma baxmayaraq, maşının həqiqətən də onları başa düşdüyünü təkid edirdilər.

Digər hallarda, həqiqiliyin qiymətləndirilməsində səhv sözün hərfi mənasında ölümcül ola bilər. 2016-cı ildə avtomatlaşdırılmış Tesla avtomobilinin bir sahibi avtopilot rejiminin görünən təhlükəsizliyinə o qədər güvəndi ki, (hekayələrə görə) o, tamamilə Harri Potter filmlərinə baxmağa başladı və hər şeyi öz başına etmək üçün maşını tərk etdi.

Hər şey yaxşı getdi - nə vaxtsa pisləşənə qədər. Qəzasız yüzlərlə, hətta minlərlə mil yol qət edən avtomobil (sözün hər mənasında) gözlənilməz bir maneə ilə toqquşub: ağ yük maşını magistral yolu keçdi və Tesla qoşqunun altına qaçdı və avtomobil sahibini yerindəcə öldürdü.. (Maşın sürücüyə bir neçə dəfə nəzarəti ələ alması üçün xəbərdarlıq etdi, lakin sürücü tez reaksiya verə bilməyəcək qədər rahat görünürdü.)

Bu hekayənin əxlaqı aydındır: bir cihazın bir və ya iki dəqiqə (hətta altı ay) üçün "ağıllı" görünə bilməsi heç də onun həqiqətən belə olduğunu və ya bütün şərtlərin öhdəsindən gələ biləcəyini ifadə etmir. insan adekvat reaksiya verərdi.

Sürətli tərəqqi illüziyası adlandırdığımız ikinci problem: asan problemlərin həlli ilə əlaqəli süni intellektdə irəliləyişə səhv salmaq, həqiqətən çətin problemlərin həlli ilə əlaqəli tərəqqi. Bu, məsələn, IBM Watson sistemi ilə baş verdi: onun Jeopardy oyununda irəliləməsi! çox perspektivli görünürdü, lakin əslində sistem tərtibatçıların gözlədiyindən daha çox insan dilini anlamaqdan daha uzaq olduğu ortaya çıxdı.

DeepMind-in AlphaGo proqramının da eyni yolla getməsi mümkündür. Go oyunu, şahmat kimi, hər iki oyunçunun istənilən vaxt bütün lövhəni görə biləcəyi və kobud qüvvə ilə hərəkətlərin nəticələrini hesablaya biləcəyi ideallaşdırılmış məlumat oyunudur.

Əksər hallarda real həyatda heç kim heç nəyi tam əminliklə bilmir; məlumatlarımız çox vaxt natamam və ya təhrif olunur.

Ən sadə hallarda belə, bir çox qeyri-müəyyənlik var. Həkimə piyada getməyimizə, yoxsa metroya minməyimizə qərar verəndə (gündüz buludlu olduğundan) metro qatarını gözləməyin nə qədər vaxt aparacağını, qatarın yolda qalıb-qalmayacağını dəqiq bilmirik. çəlləkdəki siyənək balığı kimi vaqona sıxılacağıq və ya çöldə yağışda islanacağıq, metroya minməyə cəsarət etməyəcəyik və həkim gecikməyimizə necə reaksiya verəcək.

Biz həmişə əlimizdə olan məlumatlarla işləyirik. Özü ilə milyonlarla dəfə oynayan DeepMind AlphaGo sistemi heç vaxt qeyri-müəyyənliklə məşğul olmayıb, o, sadəcə olaraq, məlumat çatışmazlığının və ya onun natamamlığının və uyğunsuzluğunun nə olduğunu bilmir, insanların qarşılıqlı əlaqəsinin mürəkkəbliyini qeyd etmir.

Ağıl oyunlarını real dünyadan çox fərqli edən başqa bir parametr var və bu yenə də məlumatlarla bağlıdır. Hətta mürəkkəb oyunlar (qaydalar kifayət qədər ciddidirsə) demək olar ki, mükəmməl şəkildə modelləşdirilə bilər, buna görə də onları oynayan süni intellekt sistemləri məşq etmələri üçün lazım olan böyük həcmdə məlumatları asanlıqla toplaya bilər. Beləliklə, Go vəziyyətində maşın sadəcə özünə qarşı oynayaraq insanlarla oyunu simulyasiya edə bilər; sistemə terabaytlarla məlumat lazım olsa belə, onu özü yaradacaq.

Beləliklə, proqramçılar az və ya heç bir xərclə tamamilə təmiz simulyasiya məlumatı əldə edə bilərlər. Əksinə, real dünyada mükəmməl təmiz məlumatlar mövcud deyil, onu simulyasiya etmək mümkün deyil (çünki oyun qaydaları daim dəyişir) və sınaq yolu ilə çoxlu gigabayt müvafiq məlumat toplamaq daha çətindir. və səhv.

Reallıqda fərqli strategiyaları sınamaq üçün cəmi bir neçə cəhdimiz var.

Biz, məsələn, nəqliyyat seçimi baxımından davranışımızı dramatik şəkildə yaxşılaşdırmaq üçün hər səfərdən əvvəl qərarların parametrlərini tədricən düzəldərək, həkimə 10 milyon dəfə baş çəkə bilmirik.

Proqramçılar qocalara kömək etmək üçün (məsələn, xəstə insanları yatdırmağa kömək etmək üçün) bir robot hazırlamaq istəsələr, hər bir məlumat real pula və real insan vaxtına dəyər olacaq; simulyasiya oyunlarından istifadə edərək bütün lazımi məlumatları toplamaq üçün heç bir yol yoxdur. Hətta qəza testi dummies real insanları əvəz edə bilməz.

Yaşlılıq hərəkətlərinin müxtəlif xüsusiyyətləri olan real yaşlı insanlar, müxtəlif növ çarpayılar, müxtəlif pijama növləri, müxtəlif növ evlər haqqında məlumat toplamaq lazımdır və burada səhv edə bilməzsiniz, çünki bir insanı bir neçə məsafədə belə yerə atırsınız. santimetr yataqdan bir fəlakət olardı. Bu vəziyyətdə, dar süni intellekt üsullarından istifadə etməklə bu sahədə müəyyən bir irəliləyiş (indiyə qədər ən elementar) əldə edilmişdir. Dota 2 və Starcraft 2 video oyunlarında demək olar ki, ən yaxşı insan oyunçuları səviyyəsində oynayan kompüter sistemləri hazırlanmışdır, burada istənilən vaxt oyun dünyasının yalnız bir hissəsi iştirakçılara göstərilir və beləliklə, hər bir oyunçu qarşı-qarşıya gəlir. məlumat çatışmazlığı problemi - Klausewitz-in yüngül əli ilə "naməlumun dumanı" adlanır. Bununla belə, inkişaf etdirilmiş sistemlər hələ də çox dar fokuslanmış və işləməkdə qeyri-sabit olaraq qalır. Məsələn, Starcraft 2-də oynayan AlphaStar proqramı müxtəlif personajlardan yalnız bir xüsusi irqi öyrəndi və bu inkişafların demək olar ki, heç biri digər yarışlar kimi oynana bilməz. Və təbii ki, bu proqramlarda istifadə olunan metodların daha mürəkkəb real həyat vəziyyətlərində uğurlu ümumiləşdirmələr aparmaq üçün uyğun olduğuna inanmağa heç bir əsas yoxdur. real həyatlar. IBM-in bir deyil, artıq iki dəfə kəşf etdiyi kimi (əvvəlcə şahmatda, sonra isə təhlükədə!), Qapalı dünyadakı problemlərdə uğur heç də açıq dünyada uğura zəmanət vermir.

Təsvir edilən uçurumun üçüncü dairəsi etibarlılığın həddindən artıq qiymətləndirilməsidir. Dəfələrlə görürük ki, insanlar süni intellektin köməyi ilə bir müddət uğursuz işləyə bilən hansısa problemin həllini tapan kimi avtomatik olaraq hər şeyi yenidən nəzərdən keçirərək (və bir az daha böyük həcmdə məlumatla) güman edirlər. etibarlı işləyəcək.vaxt. Lakin bu, mütləq belə deyil.

Yenə sürücüsüz maşınları götürürük. Sakit bir yolda aydın şəkildə işarələnmiş zolaqla düzgün hərəkət edəcək avtonom avtomobilin nümayişini yaratmaq nisbətən asandır; lakin, insanlar bunu bir əsrdən çoxdur ki, edə bilirlər. Ancaq çətin və ya gözlənilməz şəraitdə bu sistemləri işə salmaq daha çətindir.

Duke Universitetinin İnsan və Muxtariyyət Laboratoriyasının direktoru (və ABŞ Hərbi Dəniz Qüvvələrinin keçmiş döyüş pilotu) Missy Cummings elektron poçtla bizə dediyi kimi, sual sürücüsüz avtomobilin qəzasız nə qədər mil məsafə qət edə bilməsində deyil. bu avtomobillər dəyişən vəziyyətlərə uyğunlaşa bilir. Missy Cummings-ə görə, 22 sentyabr 2018-ci ildə müəlliflərə e-poçt göndərin., müasir yarı avtonom avtomobillər "adətən yalnız çox dar diapazonda fəaliyyət göstərir, bu isə onların ideal olmayan şəraitdə necə işləyə biləcəyi barədə heç nə demir."

Phoenix-də milyonlarla sınaq milində tamamilə etibarlı görünmək Bombaydakı musson zamanı yaxşı performans göstərmək demək deyil.

Avtonom avtomobillərin ideal şəraitdə necə davranması (məsələn, şəhərətrafı çoxzolaqlı yollarda günəşli günlər) ilə onların ekstremal şəraitdə edə biləcəkləri arasındakı bu əsas fərq asanlıqla bütün sənaye üçün uğur və uğursuzluq məsələsinə çevrilə bilər.

Ekstremal şəraitdə avtonom sürməyə bu qədər az diqqət yetirildiyi və mövcud metodologiyanın avtopilotun real hesab olunmağa yeni başlayan şəraitdə düzgün işləməsini təmin etmək istiqamətində təkamül etmədiyi halda, tezliklə milyardlarla dolların olacağı aydınlaşa bilər. sadəcə olaraq insana bənzəyən sürücülük etibarlılığını təmin etməyən özünü idarə edən avtomobillərin yaradılması üsullarına sərf edilmişdir. Ola bilsin ki, bizə lazım olan texniki inam səviyyəsinə nail olmaq üçün indikilərdən əsaslı şəkildə fərqli yanaşmalar tələb olunur.

Avtomobillər isə bir çox oxşarlardan yalnız bir nümunədir. Süni intellektlə bağlı müasir tədqiqatlarda onun etibarlılığı qlobal miqyasda düzgün qiymətləndirilməmişdir. Bu qismən ona görədir ki, bu sahədə mövcud inkişafların əksəriyyəti reklamın tövsiyə edilməsi və ya yeni məhsulların təşviqi kimi səhvlərə yüksək dözümlü problemlərlə bağlıdır.

Həqiqətən, sizə beş növ məhsul tövsiyə etsək və onlardan yalnız üçünü bəyənsəniz, heç bir zərər olmayacaq. Lakin gələcək üçün bir sıra kritik süni intellekt tətbiqlərində, o cümlədən sürücüsüz avtomobillər, yaşlılara qulluq və səhiyyənin planlaşdırılmasında insan kimi etibarlılıq kritik olacaq.

Heç kim qoca babanızı beşdən dörd dəfə təhlükəsiz şəkildə yatağa apara bilən ev robotu almayacaq.

Müasir süni intellektin nəzəri cəhətdən ən yaxşı şəkildə görünməli olduğu vəzifələrdə belə, ciddi uğursuzluqlar müntəzəm olaraq baş verir, bəzən çox gülməli görünür. Tipik bir nümunə: kompüterlər, prinsipcə, bu və ya digər görüntüdə nə olduğunu (və ya baş verdiyini) necə tanıyacağını çox yaxşı öyrəndilər.

Bəzən bu alqoritmlər əla işləyir, lakin çox vaxt tamamilə inanılmaz səhvlər yaradır. Gündəlik səhnələrin fotoşəkilləri üçün başlıq yaradan avtomatlaşdırılmış sistemə bir şəkil göstərsəniz, tez-tez bir insanın yazdıqlarına olduqca bənzər bir cavab alırsınız; məsələn, bir qrup insanın frizbi oynadığı aşağıdakı səhnə üçün Google-un yüksək dərəcədə ictimailəşdirilmiş altyazı yaratma sistemi ona tam olaraq düzgün adı verir.

Şəkil 1.1. Frizbi oynayan bir qrup gənc (süni intellekt tərəfindən avtomatik yaradılan ağlabatan foto başlıq)
Şəkil 1.1. Frizbi oynayan bir qrup gənc (süni intellekt tərəfindən avtomatik yaradılan ağlabatan foto başlıq)

Ancaq beş dəqiqə sonra, məsələn, kiminsə stikerlər yapışdırdığı bu yol nişanı ilə baş verdiyi kimi eyni sistemdən tamamilə absurd cavabı asanlıqla ala bilərsiniz: Sistemin yaradıcıları adlı kompüter bu xətanın niyə baş verdiyini izah etmədi., lakin belə hallar nadir deyil. Güman edə bilərik ki, bu xüsusi halda sistem fotoşəkili (bəlkə də rəng və faktura baxımından) “çoxlu yemək və içkilərlə dolu soyuducu” kimi etiketlənən digər şəkillərə (bundan öyrəndiyinə) bənzəyir. Təbii ki, kompüter belə bir yazının yalnız içərisində müxtəlif (və hətta heç də hamısı deyil) obyektləri olan böyük düzbucaqlı metal qutu vəziyyətində uyğun olacağını başa düşmədi (bir insanın asanlıqla başa düşə biləcəyi). bu səhnə "çoxlu yemək və içkilər olan soyuducudur".

düyü. 1.2. Soyuducu çoxlu yemək və içkilərlə doludur (tamamilə ağlasığmaz başlıq, yuxarıdakı sistemlə yaradılmışdır)
düyü. 1.2. Soyuducu çoxlu yemək və içkilərlə doludur (tamamilə ağlasığmaz başlıq, yuxarıdakı sistemlə yaradılmışdır)

Eynilə, sürücüsüz avtomobillər tez-tez "gördüklərini" düzgün müəyyənləşdirirlər, lakin bəzən avtopilotda park edilmiş yanğınsöndürən maşınlara və ya təcili yardım maşınlarına çırpılan Tesla hadisəsində olduğu kimi, bəzən aşkar olanı nəzərdən qaçırırlar. Bu kimi kor nöqtələr elektrik şəbəkələrinə nəzarət edən sistemlərdə yerləşərsə və ya ictimai sağlamlığın monitorinqinə cavabdehdirsə, daha təhlükəli ola bilər.

Şöhrətpərəstlik və süni intellektin reallıqları arasındakı uçurumu aradan qaldırmaq üçün bizə üç şey lazımdır: bu oyunda risk altında olan dəyərlərin aydın şəkildə dərk edilməsi, müasir AI sistemlərinin niyə öz funksiyalarını kifayət qədər etibarlı şəkildə yerinə yetirmədiyini aydın başa düşmək və, nəhayət, yeni inkişaf strategiyası maşın düşüncəsi.

İş yerləri, təhlükəsizlik və cəmiyyətin quruluşu baxımından süni intellektlə bağlı paylar həqiqətən yüksək olduğundan, hamımızın - AI mütəxəssisləri, əlaqəli peşələr, adi vətəndaşlar və siyasətçilər - işlərin əsl vəziyyətini anlamaq üçün təcili ehtiyac var. Bu sahədə bugünkü süni intellektin inkişaf səviyyəsini və xarakterini tənqidi qiymətləndirməyi öyrənmək üçün.

Xəbərlər və statistika ilə maraqlanan vətəndaşlar üçün sözlər və rəqəmlərlə insanları çaşdırmağın nə qədər asan olduğunu başa düşmək vacib olduğu kimi, burada süni intellektin harada olduğunu anlamaq üçün getdikcə daha əhəmiyyətli bir anlayış var. real haradadır; indi nəyə qadirdir və necə bilmədiyini və bəlkə də öyrənməyəcəyini.

Ən əsası, süni intellektin sehrli olmadığını, sadəcə olaraq hər birinin özünəməxsus güclü və zəif tərəfləri olan, bəzi tapşırıqlar üçün uyğun, digərləri üçün uyğun olmayan texnika və alqoritmlər toplusunu dərk etməkdir. Bu kitabı yazmağa başlamağımızın əsas səbəblərindən biri odur ki, süni intellekt haqqında oxuduqlarımızın əksəriyyəti bizə süni intellektin az qala sehrli gücünə əsassız inamdan irəli gələn mütləq fantaziya kimi görünür.

Bu arada, bu fantastikanın müasir texnoloji imkanlarla heç bir əlaqəsi yoxdur. Təəssüf ki, süni intellektin geniş ictimaiyyət arasında müzakirəsi fərziyyə və mübaliğədən çox təsirlənmiş və təsirlənmişdir: insanların çoxu universal süni intellekt yaratmağın nə qədər çətin olduğunu bilmir.

Gəlin əlavə müzakirəyə aydınlıq gətirək. Süni intellektlə bağlı reallıqları aydınlaşdırmaq bizdən ciddi tənqid tələb etsə də, biz özümüz heç bir halda süni intellektin əleyhdarı deyilik, texnoloji tərəqqinin bu tərəfini çox bəyənirik. Biz həyatımızın əhəmiyyətli bir hissəsini bu sahədə peşəkarlar kimi yaşadıq və bunun mümkün qədər tez inkişaf etməsini istəyirik.

Amerikalı filosof Hubert Dreyfus bir dəfə kitab yazmışdı ki, onun fikrincə, süni zəka heç vaxt hansı yüksəkliklərə çata bilməz. Bu kitabın mövzusu bu deyil. O, qismən süni intellektin hazırda edə bilmədiyi şeylərə və onu başa düşməyin nəyə görə vacib olduğuna diqqət yetirir, lakin onun əhəmiyyətli bir hissəsi kompüter təfəkkürünü təkmilləşdirmək və onu indi ilk olaraq etməkdə çətinlik çəkdiyi sahələrə yaymaq üçün nələrin edilə biləcəyindən bəhs edir.

Biz süni intellektin yox olmasını istəmirik; biz bunun köklü surətdə təkmilləşməsini istəyirik ki, həqiqətən də ona arxalana bilək və bəşəriyyətin bir çox problemlərini onun köməyi ilə həll edək. Süni intellektin hazırkı durumu ilə bağlı çoxlu tənqidlərimiz var, amma bizim tənqid etdiyimiz elmə olan sevginin təzahürüdür, hər şeydən vaz keçib imtina etməyə çağırış deyil.

Bir sözlə, biz inanırıq ki, süni intellekt həqiqətən də dünyamızı ciddi şəkildə dəyişdirə bilər; lakin biz həm də inanırıq ki, AI ilə bağlı bir çox əsas fərziyyələr real irəliləyişdən danışmaqdan əvvəl dəyişməlidir. Bizim təklif etdiyimiz süni intellektin “sıfırlanması” tədqiqata son qoymaq üçün heç də səbəb deyil (baxmayaraq ki, bəziləri kitabımızı məhz bu ruhda başa düşə bilər), daha çox diaqnozdur: biz indi harada ilişib qalmışıq və necə çıxırıq? bugünkü vəziyyət.

İnanırıq ki, irəli getməyin ən yaxşı yolu öz zehnimizin quruluşuna baxaraq içəri baxmaq ola bilər.

Həqiqətən ağıllı maşınların insanların tam surətləri olması lazım deyil, lakin süni intellektə vicdanla baxan hər kəs görəcək ki, insanlardan, xüsusən də gənc uşaqlardan hələ də öyrənməli çox şey var. yeni anlayışları mənimsəmək və anlamaq qabiliyyəti.

Tibb alimləri tez-tez kompüterləri “fövqəlbəşər” (bu və ya digər şəkildə) sistemlər kimi xarakterizə edirlər, lakin insan beyni hələ də ən azı beş aspektdə silikon analoqlarından xeyli üstündür: biz dili başa düşə bilirik, dünyanı anlaya bilirik, çevik şəkildə. yeni şərtlərə uyğunlaşa bilərik, biz tez yeni şeylər öyrənə bilərik (hətta böyük həcmdə məlumat olmadan da) və natamam və hətta ziddiyyətli məlumat qarşısında əsaslandıra bilərik. Bütün bu cəbhələrdə müasir süni intellekt sistemləri ümidsizcə insanlardan geri qalır.

Süni intellektin yenidən işə salınması
Süni intellektin yenidən işə salınması

Süni intellekt: Yenidən yükləmə müasir texnologiyaları anlamaq və yeni AI nəslinin həyatımızı necə və nə vaxt daha yaxşı edə biləcəyini anlamaq istəyən insanları maraqlandıracaq.

Tövsiyə: