Özünü proqramlaşdıran kompüterlər artıq elmi fantastika deyil. Bütün böyük İnternet şirkətləri maşın öyrənmə alqoritmlərindən istifadə edir və bunun səbəbi aydındır: bu, müştəriyə tam olaraq onu maraqlandıra biləcək mal və xidmətləri təklif etməyə kömək edir. Praktik alim Pedro Dominqos kitabında universal öyrənmə alqoritminin axtarışından, eləcə də hazırda maşın öyrənməsinin tətbiq olunduğu sahələrdən bəhs edir.

"Mann, İvanov və Ferber" nəşriyyatının icazəsi ilə "Lenta.ru" Pedro Dominqosun kitabından bir parça dərc edir " Usta alqoritm. Maşın öyrənməsi dünyamızı necə dəyişəcək.

Niyə Google Yahoo-dan bu qədər bahadır? Hər iki şirkət İnternetdə reklam nümayiş etdirməklə pul qazanır və hər ikisi əla trafikə malikdir, həm reklam auksionları keçirir, həm də istifadəçinin klikləmə ehtimalını proqnozlaşdırmaq üçün maşın öyrənməsindən istifadə edir (ehtimal nə qədər yüksək olarsa, reklam bir o qədər dəyərlidir).

Məsələ ondadır ki, Google-un öyrənmə alqoritmləri Yahoo-nunkindən qat-qat təkmildir. Təbii ki, kapitallaşma fərqinin yeganə çox ciddi səbəbi bu deyil. Hər proqnozlaşdırılan, lakin edilməmiş klik reklamçı üçün əldən verilmiş fürsətdir və axtarış motoru üçün itirilmiş gəlirdir.

Nəzərə alsaq ki, Google-un illik gəliri 50 milyard dollardır, proqnozlaşdırmanın yalnız bir faiz yaxşılaşdırılması potensial olaraq bank hesabında ildə daha yarım milyard dollar deməkdir. Təəccüblü deyil ki, Google maşın öyrənməsinin böyük pərəstişkarıdır və Yahoo və digər rəqiblər buna nail olmaq üçün mübarizə aparırlar.

Onlayn reklam daha geniş bir fenomenin yalnız bir aspektidir. İstənilən bazarda istehsalçılar və istehlakçılar sövdələşmədən əvvəl bir-biri ilə əlaqə saxlamalıdırlar. İnternet yaranmazdan əvvəl onlar arasındakı əsas maneələr fiziki idi: kitabı yalnız yaxınlıqdakı kitab mağazasında almaq olardı və oradakı rəflər ölçüsüz deyildi. Ancaq indi kitabları istənilən vaxt "oxucuya" yükləmək mümkün olduğundan, çox sayda seçim problemə çevrilir.

Kitab mağazasının rəflərində milyonlarla cild varsa, burada necə axtarış etmək olar? Bu, digər məlumat məhsulları üçün də keçərlidir: videolar, musiqi, xəbərlər, tvitlər, bloqlar, köhnə yaxşı saytlar. Bu, məsafədən əldə edilə bilən məhsul və xidmətlərə də aiddir: ayaqqabılar, çiçəklər, qadcetlər, otel otaqları, təhsil, investisiyalar, hətta iş və həyat yoldaşı tapmaq. Bir-birinizi necə tapmaq olar? Bu, informasiya əsrinin müəyyənedici problemidir və maşın öyrənməsi onu həll etməyə kömək edir.

Bir şirkətin inkişafında üç mərhələ var. Əvvəlcə hər şey əl ilə edilir: ailə mağazasının sahibləri müştərilərini şəxsən tanıyır və buna uyğun olaraq malları sifariş edir, nümayiş etdirir və tövsiyə edirlər. Bu sevimlidir, lakin böyütməyə imkan vermir. İkinci və ən xoşagəlməz mərhələdə şirkət o qədər böyüyür ki, kompüterlərdən istifadə etmək zərurəti yaranır. Proqramçılar, məsləhətçilər, verilənlər bazası menecerləri meydana çıxır, mümkün olan hər şeyi avtomatlaşdırmaq üçün milyonlarla kod sətirləri yazılır.

Şirkət daha çox insana xidmət göstərməyə başlayır, lakin keyfiyyət aşağı düşür: qərarlar kobud demoqrafik təsnifat əsasında qəbul edilir və kompüter proqramları bəşəriyyətin sonsuz dəyişkənliyinə uyğunlaşmaq üçün kifayət qədər elastik deyil. Bəzi məqamlarda proqramçılar və məsləhətçilər sadəcə olaraq kifayət etmir və şirkət istər-istəməz maşın öyrənməsinə müraciət edir.

Amazon bütün müştərilərinin zövqünü zərif şəkildə kompüter proqramına kodlaya bilmir və Facebook hər bir istifadəçinin istədiyi yeniləmələri seçmək üçün proqram yaza bilmir. Walmart hər gün milyonlarla məhsul satır. Bunun proqramçıları isə ticarət şəbəkəsi milyonlarla seçim edə biləcək bir proqram yaratmağa çalışsalar, əsrlər boyu işləyəcəklər. Bunun əvəzinə şirkətlər öyrənmə alqoritmlərini açır, onları artıq yığılmış məlumat yığınlarına aldadır və müştərilərin nə istədiklərini təxmin etməyə imkan verir.

Maşın öyrənmə alqoritmləri məlumat qarışıqlığını kəsir və uyğunlaşdırıcılar kimi bir-biri üçün istehsalçı və istehlakçılar tapır. Alqoritmlər kifayət qədər ağıllıdırsa, onlar hər iki dünyanın ən yaxşısını birləşdirir: geniş seçim, nəhəng korporasiyanın aşağı qiyməti və kiçik bir şirkətin fərdi yanaşması. Öyrənmə alqoritmləri mükəmməl deyil və qərar qəbul etməkdə son addım hələ də insanın ixtiyarındadır, lakin onlar seçimi ağlabatan şəkildə daraldır ki, insan qərar verə bilsin.

Bu gün aydındır ki, kompüterlərdən internetə, sonra isə maşın öyrənməsinə keçid qaçılmaz idi. Kompüterlər məlumat axınını və sonsuz seçim problemini yaradan interneti mümkün etdi və maşın öyrənməsi məhdudiyyətsiz seçim problemini həll etmək üçün məlumat axınından istifadə edir. Tələbi “bir ölçü hamıya uyğundur”dan uzun, sonsuz müxtəlif variantlar siyahısına keçirmək üçün təkcə İnternet kifayət deyil. Netflix-də yüz min müxtəlif DVD ola bilər, lakin müştəri bəyəndiklərini necə tapacağını bilmirsə, defolt olaraq hitlərə uyğun olacaq. Netflix zövqlərinizi təxmin edən və musiqi tövsiyə edən öyrənmə alqoritmini əldə edənə qədər az tanınan sənətçilərin uzun quyruğu qalxdı.

Nə vaxtsa qaçılmaz olan şey baş verəcək: öyrənmə alqoritmləri əvəzsiz vasitəçilərə çevriləcək və güc onlarda cəmləşəcək. Google-un alqoritmləri əsasən gördüyünüz məlumatları, Amazon hansı məhsulları aldığınızı, Match.com isə kiminlə görüşdüyünüzü müəyyənləşdirir. Son mərhələ - alqoritmin təklif etdiyi variantlardan seçim etmək - hələ də öhdəsindən gəlmək məcburiyyətindəsiniz, lakin seçimin 99,9 faizi sizin iştirakınız olmadan baş tutacaq. Bir şirkətin uğuru və ya uğursuzluğu maşın öyrənmə alqoritmlərinin onun məhsullarına üstünlük verib-verməməsindən asılı olacaq. Bütövlükdə iqtisadiyyatın uğuru, yəni bütün oyunçuların düzgün məhsulları ən yaxşı qiymətə əldə edib-etməməsi öyrənmə alqoritmlərinin nə dərəcədə yaxşı olmasından asılı olacaq.

Maşın öyrənmə alqoritmlərinin şirkətinizin məhsullarına üstünlük verməsini təmin etməyin ən yaxşı yolu onlardan istifadə etməkdir. Kimin daha yaxşı alqoritmləri və daha çox məlumatı varsa, o qalib gəlir. Məhz burada yeni şəbəkə effekti işə düşür: kimin daha çox müştərisi varsa, o, daha çox məlumat toplayır, modelləri daha yaxşı öyrədir, yeni müştərilər qazanır və s. spiral (və rəqibin nöqteyi-nəzərindən, qapalı dairədə). Google-dan Bing-ə keçmək Windows-dan Mac OS-yə keçməkdən daha asan ola bilər, lakin praktikada bunu etməyəcəksiniz, çünki yaxşı başlanğıc və daha böyük bazar payı sayəsində Google texnologiyanın özü olsa belə, nə istədiyinizi daha yaxşı bilir. Bing də pis deyil. Axtarış motorları bazarına yeni gələnlər yalnız rəğbətlə qarşılana bilər: heç bir məlumatı olmayan onlar on ildən artıqdır ki, alqoritmlərini öyrədən sistemlərə qarşı mübarizə aparmağa məcbur olurlar.

Bir anda məlumatların sadəcə təkrarlanmağa başlayacağını düşünə bilərsiniz, lakin doyma nöqtəsi yoxdur və "uzun quyruq" sürüklənməyə davam edir. Əlbəttə ki, özünüz görə bilərsiniz: Amazon və ya Netflix-in tövsiyələri hələ də çox kobuddur və Google-un verdiyi nəticələr çox arzuolunmazdır. Maşın öyrənməsinin köməyi ilə məhsulun hər bir xüsusiyyətini, saytın hər küncünü təkmilləşdirə bilərsiniz. Səhifənin altındakı linki qırmızı və ya mavi etmək daha yaxşıdır? Hər iki variantı sınayın və hansının daha çox klik aldığını görün. Öyrənmə alqoritmlərini ümumiyyətlə söndürməmək və saytın bütün elementlərini daim tənzimləmək daha yaxşıdır.

Eyni dinamikanı çoxlu variantların və çoxlu məlumatların olduğu istənilən bazarda görmək olar. Yarış tam sürətlə gedir və kim daha tez öyrənsə qalib gəlir. Söhbət təkcə müştərini daha yaxşı başa düşmək məsələsi deyil: şirkətlər mövzu ilə bağlı məlumatların olması və məlumat mənbələrinin kompüterlər, rabitə cihazları və getdikcə daha ucuz və hər yerdə tapılan sensorlar olması şərti ilə əməliyyatlarının hər tərəfində maşın öyrənməsini tətbiq edə bilər. İndi onlar təkrar etməyi xoşlayırlar ki, “məlumat yeni neftdir” və neftdə olduğu kimi, emal da böyük biznes. IBM, hər bir korporasiya kimi, inkişaf strategiyasını şirkətlərə analitik xidmətlərin göstərilməsi ətrafında qurub. Biznes məlumatlara strateji resurs kimi baxır: rəqiblərimizdə çatışmayan nəyimiz var? Bundan necə yararlanmaq olar? Rəqiblərdə bizdə olmayan hansı məlumatlar var?

Necə ki, verilənlər bazası olmayan bank mövcud bankla rəqabət apara bilməz, eləcə də maşın öyrənməsindən istifadə etməyən şirkət də malik olanlarla rəqabət apara bilməz. Birinci şirkət müştərilərin istəklərini təxmin etmək üçün minlərlə qayda yazacağı halda, ikinci şirkətin alqoritmləri hər bir fərdi müştəri üçün milyardlarla qaydalar, bütöv dəst tapacaq. Belə rəqabət pulemyotlara nizə ilə hücuma bənzəyir. Əlbəttə ki, maşın öyrənməsi əladır yeni texnologiya, lakin biznes üçün bu belə deyil: tətbiq edilməli olacaq, çünki başqa seçim yoxdur.

Pedro Dominqos

Usta Alqoritm

Ən Yaxşı Öyrənmə Maşınının Axtarışı Dünyamızı Necə Yenidən Yaradacaq

Elmi redaktorlar Alexander Sboev, Aleksey Serenko

Pedro Dominqosun icazəsi ilə nəşr edilmişdir c/o Levine Greenberg Rostan Literary Agency and Synopsis Literary Agency

Nəşriyyatın hüquqi təminatı tərəfindən təmin edilir hüquq firması Vegas Lex.

© Pedro Dominqos, 2015

© Rus dilinə tərcümə, rus dilində nəşr, dizayn. MMC "Mann, İvanov və Ferber", 2016

Bu kitab yaxşı tamamlanır:

Nik Bostrom

Aleks Bellos

Avinash Dixit və Barry Nailbuff

Bu kitabı yazarkən xərçənglə mübarizəsini itirən bacım Ritanın məhəbbətlə xatirəsinə.

Elmin ən böyük vəzifəsi mümkün qədər az fərziyyə və aksiomadan başlayaraq məntiqi deduksiya ilə mümkün qədər çox eksperimental faktı izah etməkdir.

Albert Eynşteyn

Sivilizasiyanın tərəqqisi düşünmədən həyata keçirdiyimiz mühüm hərəkətlərin sayını artırmaqdır.

Alfred North Whitehead

Maşın öyrənməsi sizin ətrafınızdadır, baxmayaraq ki, siz bundan xəbərsiz ola bilərsiniz. Maşın öyrənməsi sayəsində axtarış motoru sorğunuza cavab olaraq hansı nəticələrin (və reklamların) göstəriləcəyini anlayır. Poçtunuzu yoxladığınız zaman çoxu Maşın öyrənməsi ilə filtrləndiyi üçün spam sizi ötür. Əgər Amazon.com-da nəsə almaq və ya filmə baxmaq üçün Netflix-ə baxmaq qərarına gəlsəniz, maşın öyrənmə sistemi sizə faydalı ola biləcək variantları təklif edəcək. Maşın öyrənməsindən istifadə edərək, Facebook sizə hansı xəbərləri göstərəcəyinə qərar verir, Twitter isə düzgün tvitləri seçir. Bir kompüterdən istifadə etdiyiniz zaman, çox güman ki, maşın öyrənməsi hardasa iştirak edir.

Kompüteri hər hansı bir işə cəlb etməyin yeganə yolu - iki rəqəm əlavə etməkdən tutmuş təyyarəni idarə etməyə qədər - maşından tam olaraq nə tələb olunduğunu söyləyən bir növ alqoritm yazmaq idi. Bununla belə, maşın öyrənməsi alqoritmləri tamam başqa məsələdir: onlar hər şeyi özləri təxmin edir, verilənlər əsasında nəticə çıxarırlar və nə qədər çox məlumat olsa, bir o qədər yaxşıdır. Bu o deməkdir ki, kompüterlərin proqramlaşdırılmasına ehtiyac yoxdur: onlar özlərini proqramlaşdırırlar.

Bu, təkcə kiberməkanda deyil: maşın öyrənməsi oyanmaqdan yatmağa qədər bütün həyatımıza nüfuz edir.

Səhər yeddi. Zəngli saat radionu işə salır. Tanış olmayan, lakin çox xoş musiqilər səslənir: Pandora xidməti sayəsində radio sizin zövqünüzlə tanış oldu və “şəxsi DJ”ə çevrildi. Ola bilsin ki, mahnının özü də maşın öyrənməsinin köməyi ilə doğulub. Səhər yeməyində səhər kağızını vərəqləyirsən. Bir neçə saat əvvəl o, mətbəə qüsurlarını aradan qaldırmaq üçün öyrənmə alqoritmi ilə incə tənzimlənmiş mətbəədən düşdü. Otaqdakı temperatur son dərəcə rahatdır və Nest smart termostatını taxdığınız üçün elektrik pulları dişlənmir.

İşə gedərkən avtomobil qaz xərclərini minimuma endirmək üçün yanacaq vurulmasını və işlənmiş qazın resirkulyasiyasını daim tənzimləyir. Pik saatlarda yol hərəkətinin proqnozlaşdırılması sistemi olan Inrix əsəbləri nəzərə almasaq, vaxta qənaət edir. İş yerində maşın öyrənməsi informasiyanın həddən artıq yüklənməsi ilə mübarizə aparmağa kömək edir: siz böyük miqdarda məlumatı ümumiləşdirmək, ona müxtəlif rakurslardan baxmaq və bütün ən vacib şeyləri ətraflı öyrənmək üçün məlumat kubundan istifadə edirsiniz. Hansı saytın tərtibinə qərar vermək lazımdırsa - AMMA və ya AT– daha çox perspektiv cəlb edəcək, təlim keçmiş sistem hər iki variantı sınaqdan keçirəcək və sizə hesabat təqdim edəcək. Potensial təchizatçının saytına baxmaq lazımdır, amma bu xarici dildədir? Problem yoxdur, Google onu sizin üçün avtomatik tərcümə edəcək. E-poçtlar rahat şəkildə qovluqlara bölünür və yalnız ən vacibləri Gələnlər qutusunda qalır. Söz prosessoru sizin üçün qrammatika və orfoqrafiya yoxlayır. Siz qarşıdan gələn işgüzar səfəriniz üçün uçuş tapmısınız, lakin hələ bilet almamısınız, çünki Bing Travel qiymətlərin tezliklə düşəcəyini proqnozlaşdırır. Farkında olmadan hər saat çox şey edirsən. daha çox iş maşın öyrənməsinin köməyi olmadan edə bildiklərindən daha çox.

Boş vaxtlarınızda siz qarşılıqlı fond depozitlərinizi yoxlayırsınız. Bu fondların əksəriyyəti perspektivli ehtiyatları seçmək üçün öyrənmə alqoritmlərindən istifadə edir və onlardan biri tamamilə maşın öyrənməsinə əsaslanan sistem tərəfindən idarə olunur. Nahar vaxtı çölə çıxırsan və harada yemək yeyəcəyini düşünürsən. Smartfonunuzdakı Yelp öyrənmə sistemi sizə kömək edəcək. Mobil telefonlarümumiyyətlə, onlar yazı xətalarını yorulmadan düzəldən, səs əmrlərini tanıyan, məlumat ötürmə xətalarını düzəldən, ştrix-kodları oxuyan və bir çox başqa faydalı işlərlə məşğul olan öyrənmə alqoritmləri ilə doludur. Smartfon hətta növbəti hərəkətinizi təxmin etməyi və verməyi öyrəndi faydalı məsləhətlər. Məsələn, qonağınızın gəlməli olduğu təyyarə gecikdiyi üçün görüşün daha gec başlayacağını söyləyəcək.

İşinizi gecə gec bitirsəniz, maşın öyrənməsi sizə insidentsiz dayanacaqda avtomobilinizə çatmağa kömək edə bilər: alqoritmlər müşahidə kamerasından videoya nəzarət edir və şübhəli bir şey gördükdə təhlükəsizlik orqanlarına uzaqdan xəbərdarlıq edir. Deyək ki, evə gedərkən supermarketdə dayandınız. Rəflərdəki məhsullar öyrənmə alqoritmlərinin təlimatlarına uyğun olaraq yerləşdirilir: hansı məhsulların daha yaxşı sifariş ediləcəyinə, sıranın sonunda nə qoyulacağına və salsa üçün yerin sous şöbəsində və ya tortilla çipslərinin yanında olduğuna qərar verirlər. . Kassada kredit kartı ilə ödəniş edirsiniz. Bir vaxtlar təlim keçmiş alqoritm qərara gəldi ki, onu vermək üçün təklif göndərməlisən, sonra ərizəni təsdiqlədi. Başqa bir alqoritm daim şübhəli əməliyyatlar axtarır və ona kart nömrəsinin oğurlandığı görünsə, mütləq sizi xəbərdar edəcəkdir. Üçüncü alqoritm sizin nə qədər razı olduğunuzu anlamağa çalışır. Əgər sən yaxşı müştəri, lakin narazı görün, rəqiblərə getməzdən əvvəl sizə "şirinləşdirilmiş" təklif göndəriləcək.

Evə qayıdanda poçt qutusuna gedirsən və bir dostdan məktub tapırsan. Əl ilə yazılmış ünvanları oxumağı öyrənən bir alqoritm sayəsində çatdırıldı. Məktubdan əlavə qutuda alqoritmləri öyrənməklə sizin üçün seçilmiş adi tullantı kağızı da var (heç nə etmək olmaz). Axşamın təmiz havasında nəfəs almaq üçün bir anlıq dayanırsan. Polis cinayətin baş vermə ehtimalını proqnozlaşdırmaq və problemli ərazilərə patrul əməkdaşlarını göndərmək üçün statistik öyrənmədən istifadə etməyə başladıqdan sonra şəhərdə cinayətkarların sayı xeyli azalıb. Ailənizlə nahar edirsiniz və televizora baxırsınız. Xəbərlər bələdiyyə sədrini göstərir. Seçki günü şəxsən sizə zəng etdiyi üçün ona səs verdiniz. O, sizi əsas qərarsız seçici kimi görən öyrənmə alqoritmi ilə sizə işarə etdi. Nahardan sonra futbola baxmaq olar. Hər iki komanda statistik öyrənmədən istifadə edərək oyunçuları seçdi. Yoxsa Xbox-da uşaqlarla oynamaq daha yaxşıdır? Bu halda Kinect-dəki öyrənmə alqoritmi bədəninizin mövqeyini və hərəkətlərini izləyəcək. Yuxuya getməzdən əvvəl öyrənmə alqoritmləri ilə hazırlanmış və sınaqdan keçirilmiş bir dərman qəbul edirsiniz. Mümkündür ki, hətta həkiminiz rentgen şüalarını şərh etməkdən tutmuş qeyri-adi simptomlar toplusundan nəticə çıxarmağa qədər diaqnoz qoymaq üçün maşın öyrənməsindən istifadə edib.

Kitab haqqında

Bu sahənin qabaqcıl tədqiqatçılarından olan Pedro Dominqos pərdəni qaldıraraq bu haqda danışır...

Tamamilə oxuyun

Kitab haqqında
Praktik bir alimdən universal özünü öyrənmə alqoritminin axtarışı haqqında məşhur və maraqlı kitab.

Alqoritmlər həyatımızı idarə edir. Onlar bizim üçün kitablar, filmlər, iş və tərəfdaşlar tapır, investisiyalarımızı idarə edir və yeni dərmanlar hazırlayırlar. Bu alqoritmlər günümüzün rəqəmsal dünyasında geridə qoyduğumuz məlumat dəstlərindən getdikcə daha çox öyrənirlər. Maraqlı uşaqlar kimi bizi izləyir, təqlid edir, təcrübə aparırlar. Aparıcı laboratoriyalarda və universitetlərdə onlar verilənlərdən istənilən biliyi çıxara və istənilən problemi həll edə bilən usta öz-özünə öyrənmə alqoritmi yaratmaq üzərində işləyirlər - hətta biz onları tərtib etməzdən əvvəl.

Maşın öyrənməsi ağıllı robotlara və kompüterlərə özlərini proqramlaşdırmağa imkan verir. Bu, ən vacib müasir texnologiyalardan biridir - həm də ən sirlilərdən biridir.

Bu sahədə aparıcı tədqiqatçılardan biri olan Pedro Dominqos pərdəni qaldırır və ilk dəfə olaraq bu bilik sahəsi haqqında əlçatan bir şəkildə danışır, oxucuları maşın öyrənməsinin 5 əsas məktəbi ilə tanış edir və onların nevrologiyanın ideyalarından necə istifadə etdiyini göstərir, təkamül biologiyası, fizika və statistika alqoritmləri yaratmağa kömək edir.

Yolda o, universal öz-özünə öyrənmə alqoritmi ideyasından və onun sizi, biznesi, elmi və bütün cəmiyyəti necə dəyişəcəyindən danışır.

Müəllifdən
Usta alqoritm verilənlərdən ümumilikdə bütün bilikləri - keçmiş, indi və gələcək haqqında bilikləri çıxara biləcək. Bu alqoritmin ixtirası elm tarixində ən böyük nailiyyətlərdən biri olardı. Bu, sözün əsl mənasında hər şeydə tərəqqi sürətləndirəcək, dünyanı bu gün təsəvvür edə bilməyəcəyimiz şəkildə dəyişdirəcək. Maşın öyrənməsi üçün əsas alqoritm hissəciklər fizikasında standart model və molekulyar biologiyanın mərkəzi dogması kimi bir şeydir: bu gün bildiyimiz hər şeyi izah edən və onilliklər və hətta əsrlər boyu gələcək tərəqqinin əsasını qoyan vahid nəzəriyyə. Usta alqoritm bəşəriyyətin üzləşdiyi ən mürəkkəb problemlərin həlli üçün açardır: ev robotlarının yaradılmasından xərçəngin müalicəsinə qədər.

Bu kitab kimin üçündür?
Maşın öyrənməsi və süni intellektlə maraqlananlar üçün.

Və elmin önündə nə baş verdiyini bilmək istəyən hər kəs üçün.

Müəllif haqqında
Pedro Dominqos Vaşinqton Universitetinin professoru və maşın öyrənməsi və süni intellekt üzrə aparıcı ekspertdir. Bir kitabın və bir çox elmi məqalənin müəllifidir. Domingos bir sıra peşəkar mükafatların qalibidir.

Kəşf edildiyi gündən Hebbin qaydası əlaqənin təməl daşı olmuşdur. Bu elmi istiqamət öz adını biliyin neyronlar arasındakı əlaqələrdə saxlanması fikrinə borcludur. Kanadalı psixoloq Donald Hebb 1949-cu ildə yazdığı “The Organization of Behavior” kitabında bunu belə təsvir etmişdir: “Əgər hüceyrənin aksonu A hüceyrəyə kifayət qədər yaxın yerləşir B və onun stimullaşdırılmasında dəfələrlə və ya daim iştirak edir, sonra bir və ya hər iki hüceyrədə böyümə prosesləri və ya hüceyrə tərəfindən həyəcanlanmanın səmərəliliyini artıran metabolik dəyişikliklər baş verəcəkdir. A hüceyrələr B". Bu ifadə tez-tez "birlikdə atəş açan neyronlar bir-biri ilə əlaqə qurur" kimi ifadə edilir.

Psixologiya, nevrologiya və kifayət qədər zənn ideyaları Hebbin qaydasında birləşdi. Assosiativ öyrənmə Lokk, Hume və Con Stüart Milldən bəri Britaniya empiristlərinin sevimli mövzusu olmuşdur. Uilyam Ceyms Psixologiyanın Prinsipləri kitabında ifadə etmişdir ümumi prinsip assosiasiya, Hebb qayda olduqca oxşardır, lakin əvəzinə neyronların beyin prosesləri ehtiva edir və əvəzinə stimullaşdırılması effektivliyi - həyəcan yayılması. Təxminən eyni zamanda, böyük ispan nevroloqu Santiago Ramón y Cajal beynin ilk təfərrüatlı tədqiqatlarını apardı, neyronları yeni icad edilmiş Qolgi üsulu ilə rənglədi və botaniklər ağacların yeni növlərini təsnif edərkən öz müşahidələrini kataloqlaşdırdı. Hebbin dövründə nevroloqlar neyronların necə işlədiyinə dair əsas anlayışa malik idilər, lakin o, neyronların assosiasiyaları kodlaya biləcəyi bir mexanizm təklif edən ilk şəxs idi.

Simvolist təhsildə simvollarla onların təmsil etdiyi anlayışlar arasında təkbətək uyğunluq mövcuddur. Konneksionist nümayəndəliklər paylanır: hər bir konsepsiya bir çox neyronla təmsil olunur və hər bir neyron bir çox anlayışın təmsilində iştirak edir. Bir-birini həyəcanlandıran neyronlar, Hebbin terminologiyası ilə desək, “hüceyrə ansamblları” əmələ gətirir. Belə kolleksiyalar vasitəsilə anlayışlar və xatirələr beyində təmsil olunur. Hər bir ansamblda beynin müxtəlif bölgələrindən olan neyronlar ola bilər və ansambllar üst-üstə düşə bilər. Beləliklə, "ayaq" anlayışı üçün hüceyrə ansamblına "ayaq" anlayışı üçün ansambl daxildir, bu da öz növbəsində ayağın təsviri və "ayaq" sözünün səsi üçün ansamblları ehtiva edir. Əgər simvolist sistemdən “Nyu York” anlayışının harada yerləşdiyini soruşsanız, onun yaddaşda saxlanmasının dəqiq yerini göstərəcək. Bir əlaqə sistemində cavab "hər şeydən bir az"dır.

Simvolist və əlaqəçi öyrənmə arasındakı başqa bir fərq, birincinin ardıcıl, ikincinin isə paralel olmasıdır. Geriyə çıxma vəziyyətində, binalardan istənilən nəticəyə gəlmək üçün hansı qaydanın tətbiq edilməli olduğunu addım-addım anlayırıq. Bağlantı modelində Hebb qaydasına uyğun olaraq bütün neyronlar eyni vaxtda öyrənirlər. Bu, kompüter və beyin arasındakı fərqləri əks etdirir. Kompüterlər hətta mükəmməl adi əməliyyatları - iki ədəd əlavə etmək və ya açarı çevirmək kimi - kiçik addımlarla yerinə yetirirlər, ona görə də onlara çoxlu addımlar lazımdır. Bununla belə, addımlar çox sürətli ola bilər, çünki tranzistorlar saniyədə milyardlarla dəfə açılıb-sönə bilir. Beyin edə bilər çoxlu sayda milyardlarla neyronun eyni vaxtda işləməsi səbəbindən paralel hesablamalar. Bu vəziyyətdə neyronlar saniyədə ən yaxşı halda min dəfə stimullaşdırıla bilər və bu hesablamaların hər biri yavaş olur.

Kompüterdəki tranzistorların sayı insan beynindəki neyronların sayına yaxınlaşır, lakin bağlantıların sayında şübhəsiz ki, beyin qalib gəlir. Mikroprosessordakı tipik tranzistor yalnız bir neçə başqasına birbaşa bağlıdır və istifadə olunan planar yarımkeçirici texnologiyası kompüterin işini yaxşılaşdırmaq potensialını ciddi şəkildə məhdudlaşdırır. Bir neyronda minlərlə sinaps var. Küçədə gəzirsinizsə və tanıdığınız birini görürsünüzsə, onu tanımaq üçün saniyənin onda biri kifayət edir. Neyronların keçid sürətini nəzərə alsaq, bu vaxt yüzlərlə informasiyanın işlənməsi üçün kifayət edərdi, lakin bu yüzlərlə addımda beyin bütün yaddaşı skan edə, içindəki ən uyğununu tapıb onu yeni yaddaşa uyğunlaşdıra bilir. kontekst (müxtəlif paltarlar, fərqli işıqlandırma və s.). Hər bir emal addımı çox mürəkkəb ola bilər və böyük miqdarda məlumat ehtiva edə bilər.

Bu, kompüterin beyni simulyasiya edə bilməyəcəyini söyləmək deyil: axı, bu, əlaqə alqoritmlərinin etdiyi şeydir. Çünki kompüter universal maşın Turinq, kifayət qədər yaddaşa və vaxta sahib olmaq şərti ilə, hər hansı digər kimi beyin hesablamalarını edə bilər. Xüsusilə, əlaqənin olmaması sürətlə kompensasiya edilə bilər: min əlaqəni simulyasiya etmək üçün eyni əlaqədən min dəfə istifadə etməklə. Əslində bu gün əsas çatışmazlıq kompüterlər beyindən fərqli olaraq enerji sərf etmələridir: beyniniz kiçik bir lampa qədər enerji sərf edir, halbuki yuxarıda haqqında danışdığımız Watson kompüterini gücləndirən elektrik bütöv bir biznes mərkəzini işıqlandıra bilər.

Buna baxmayaraq, beynin işini simulyasiya etmək üçün təkcə Hebb qaydası kifayət deyil: əvvəlcə beynin quruluşunu başa düşmək lazımdır. Hər bir neyron dendritlərdən ibarət nəhəng kök sistemi və nazik dalğalı gövdəsi olan kiçik bir ağaca bənzəyir - akson. Bütövlükdə beyin milyardlarla belə ağacdan ibarət meşəyə bənzəyir, lakin bu meşə qeyri-adidir: ağacların budaqları orada minlərlə başqa ağacın kökləri ilə birləşir (belə əlaqələrə sinapslar deyilir), nəhəng, görünməmiş bir ağac meydana gətirir. incəliklər. Bəzi neyronların qısa aksonları, digərlərinin isə beynin bir ucundan digər ucuna qədər uzanan son dərəcə uzun aksonları var. Beynin aksonlarını bir-birinin ardınca düzsəniz, onlar Yerdən Aya qədər olan məsafəni götürəcəklər.

Bu cəngəllik elektrik cərəyanı ilə cırıldayır. Qığılcımlar gövdələrdən aşağı axır və qonşu ağaclarda daha çox qığılcım yaradır. Zaman zaman meşə şiddətlə alovlanır, sonra yenidən sakitləşir. Bir şəxs ayaq barmağını tərpətdikdə, bir sıra elektrik boşalmaları - fəaliyyət potensialı adlanır - ayaq barmağındakı əzələlərə dəyənə və hərəkət etməsini söyləyənə qədər onurğa beyni boyunca axır. Beynin işi belə elektrik boşalmalarının simfoniyasına bənzəyir. Bu səhifəni oxuduğunuz anda baş verənlərə daxildən nəzər sala bilsəniz, səhnə ən işlək elmi-fantastik metropoliyaları geridə qoyardı. Sinir qığılcımlarının bu inanılmaz dərəcədə mürəkkəb nümunəsi nəticədə insan şüurunun yaranmasına səbəb olur.

Hebb dövründə onlar hələ də sinapsların gücünü və onun dəyişikliklərini necə ölçməyi, sinaptik proseslərin molekulyar biologiyasını anlamaqdan bəhs etməyi bilmirdilər. Bu gün bilirik ki, sinapslar postsinaptik neyronlar presinaptik neyronlardan qısa müddət sonra atəş açdıqda yaranır və inkişaf edir. Bütün digər hüceyrələrdə olduğu kimi, neyron daxilində və xaricində ionların konsentrasiyası fərqlidir və bu səbəbdən hüceyrə membranında elektrik gərginliyi var. Presinaptik neyron atəş açdıqda, neyrotransmitter molekullarını ehtiva edən kiçik veziküllər sinaptik yarığa buraxılır. Onlar postsinaptik neyronun membranında kanalların açılmasına səbəb olur, onlardan kalium və natrium ionları çıxır, membrandakı gərginliyi dəyişir. Kifayət qədər yaxın məsafədə yerləşən presinaptik neyronlar eyni vaxtda alovlanırsa, gərginlik sıçrayır və fəaliyyət potensialı postsinaptik neyronun aksonu boyunca hərəkət edir. Bunun sayəsində ion kanalları daha çox qəbuledici olur və yeni sinaps gücləndirici kanallar meydana çıxır. Bildiyimiz qədər neyronlar belə öyrənirlər.

Növbəti addım bütün bunları bir alqoritmə çevirməkdir.

Perseptronun yüksəlişi və enişi

Neyronun ilk formal modeli 1943-cü ildə Warren McCulloch və Walter Pitts tərəfindən təklif edilmişdir. Bu, bir çox cəhətdən kompüterləri təşkil edən məntiq qapılarına bənzəyirdi. OR qapısı onun girişlərindən ən azı biri işə salındıqda, AND qapısı isə hamısı işə salındıqda açılır. McCulloch-Pitts neyronu aktiv girişlərinin sayı müəyyən həddi aşdıqda işə düşür. Əgər eşik birdirsə, neyron OR qapısı kimi çıxış edir. Əgər hədd girişlərin sayına bərabərdirsə, bu, AND qapısına bənzəyir.Bundan əlavə, bir McCulloch-Pitts neyronu digərinin işə salınmasına imkan verməyə bilər: bu, həm inhibitor sinapsları, həm də NOT qapısını modelləşdirir. Beləliklə, neyron şəbəkələri kompüterin edə biləcəyi bütün əməliyyatları yerinə yetirə bilər. Əvvəlcə kompüter tez-tez elektron beyin adlanırdı və bu, sadəcə bir bənzətmə deyildi.

Bununla belə, McCulloch-Pitts neyronu öyrənə bilmir. Bunun üçün neyronlar arasındakı əlaqələrə dəyişən çəki təyin edilməlidir və nəticədə perseptron deyilən şey yaranır. Perseptronlar 1950-ci illərin sonlarında Kornell Universitetində psixoloq Frank Rosenblatt tərəfindən icad edilmişdir. Xarizmatik natiq və çox canlı bir insan olan Rosenblatt maşın öyrənməsinin yaranması üçün hamıdan çox şey etdi. Perseptronlar öz adlarını onun modellərini nitq və xarakterin tanınması kimi qavrayış (qavrayış) problemlərinə tətbiq etmək marağına borcludurlar. O dövrlərdə çox yavaş olan kompüter proqramlarına qavrayışları daxil etmək əvəzinə, Rosenblatt öz cihazlarını qurdu: çəki onlarda sönük açarlarda olanlar kimi dəyişən rezistorlar şəklində təmsil olunurdu və ağırlıqlı öyrənmə üçün elektrik mühərrikləri istifadə olunurdu. rezistorların düymələrini bükən. (Belə yüksək texnologiyanı necə bəyənirsiniz?)

Perseptronda müsbət çəki həyəcanlandırıcı birləşməni, mənfi çəki isə inhibitoru təmsil edir. Perseptronun girişlərinin çəkili cəmi eşikdən yuxarı olarsa, bir, aşağı olarsa, sıfır verir. Çəkiləri və hədləri dəyişdirərək, perseptronun hesabladığı funksiyanı dəyişə bilərsiniz. Əlbəttə ki, neyronların necə işlədiyinə dair bir çox detallar nəzərə alınmır, lakin biz hər şeyi mümkün qədər sadələşdirmək istəyirik və məqsədimiz beynin real modelini qurmaq deyil, geniş tətbiq üçün öyrənmə alqoritmini hazırlamaqdır. Əgər nəzərə alınmayan detallardan hər hansı biri vacib olarsa, onlar həmişə əlavə edilə bilər. Bütün sadələşdirmələrə və mücərrədliyə baxmayaraq, bu modelin hər bir elementinin neyron elementinə uyğun olduğunu görə bilərsiniz:

Giriş çəkisi nə qədər böyükdürsə, müvafiq sinaps bir o qədər güclüdür. Hüceyrə gövdəsi bütün çəkili girişləri toplayır və akson nəticəyə addım funksiyası tətbiq edir. Axon qutusundakı rəqəm addım funksiyasının planını göstərir: aşağı giriş dəyərləri üçün sıfır, giriş eşik həddinə çatdıqda birinə atlanır.

Təsəvvür edin ki, perseptronun iki davamlı girişi var xy(bu o deməkdir ki xy yalnız 0 və 1 deyil, istənilən ədədi qiymət ala bilər). Bu halda, hər bir nümunə müstəvidə bir nöqtə kimi göstərilə bilər və müsbət (burada perseptron 1 çıxışı verir) və mənfi (çıxış 0) nümunələri arasındakı sərhəd düz xəttdir:

Məsələ ondadır ki, sərhəd çəkili məbləğin həddi qiymətə tam uyğun gəldiyi nöqtələr silsiləsi, çəkili məbləğ isə xətti funksiyadır. Məsələn, əgər çəki x- 2, çəki y- 3 və həddi - 6, sərhəd tənlik 2 ilə veriləcəkdir x+ 3 = 6. Nöqtə x = 0, y= 2 sərhəddə yerləşir və onun üzərində qalmaq üçün hər iki addım aşağıya doğru üç addım atmalıyıq: sonra artım x azalmanı kompensasiya edin y. Yaranan nöqtələr düz bir xətt təşkil edir.

Perseptronun çəkilərinin tapılması, bütün müsbət nümunələr bir tərəfdə və bütün mənfi nümunələr digər tərəfdə olana qədər düz xəttin istiqamətini dəyişdirməyi nəzərdə tutur. Bir ölçüdə sərhəd nöqtə, iki ölçüdə düz xətt, üç ölçüdə müstəvi, üçdən çox ölçü varsa hipermüstəvidir. Hiperkosmosda bir şeyi vizuallaşdırmaq çətindir, lakin içindəki riyaziyyat tam olaraq eyni işləyir: in nölçmələrimiz olacaq n girişlər, perseptron isə var n tərəzi. Perseptronun atəş edib-etməməsinə qərar vermək üçün hər bir çəki müvafiq giriş siqnalının dəyərinə vurmalı və onların cəmini hədd dəyəri ilə müqayisə etmək lazımdır.

Əgər bütün girişlərin çəkiləri birinə bərabərdirsə və hədd girişlərin sayının yarısıdırsa, girişlərin yarıdan çoxu atəşə tutularsa, perseptron işə düşəcək. Başqa sözlə, perseptron əksəriyyətin qalib gəldiyi kiçik bir parlamentə bənzəyir (hərçənd ki, minlərlə üzvü ola biləcəyini nəzərə alsaq, yəqin ki, o qədər də kiçik deyil). Amma eyni zamanda parlament tam demokratik deyil, çünki ümumilikdə hamının bərabər səsvermə hüququ yoxdur. Neyroşəbəkə bu baxımdan daha çox Facebook-a bənzəyir, çünki bir neçə yaxın dost minlərlə dosta dəyər - onlar sizin ən çox güvəndiyiniz və sizə ən çox təsir edənlərdir. Əgər dostunuz sizə film tövsiyə edirsə, ona baxıb bəyənirsiniz, növbəti dəfə yəqin ki, onun məsləhətinə yenidən əməl edəcəksiniz. Digər tərəfdən, əgər rəfiqəniz davamlı olaraq bəyənmədiyiniz filmlər haqqında danışırsa, siz onun fikrinə məhəl qoymayacaqsınız (və dostluğun soyuması mümkündür).

Rosenblatt-ın perseptron alqoritmi girişlərin çəkisini belə öyrənir.

Gəlin koqnitiv nevroloqların sevimli düşüncə təcrübəsi olan “nənə qəfəsi”nə nəzər salaq. "Nənənin hüceyrəsi" beyninizdəki neyrondur və yalnız nənənizi gördükdə işə düşür. Belə bir hüceyrənin həqiqətən mövcud olub-olmaması açıq sualdır, amma gəlin onu xüsusi olaraq maşın öyrənməsi üçün icad edək. Perseptron nənəni aşağıdakı şəkildə tanımağı öyrənir. Bu xanaya girişlər ya xam piksellər, ya da müxtəlif simli təsvir xüsusiyyətləridir, məsələn Qəhvəyi gözlər: Şəklin qəhvəyi gözləri varsa daxiletmə 1, yoxdursa 0 olacaq. Əvvəlcə xassələrdən neyronlara gedən bütün əlaqələrin çəkisi yeni doğulmuş körpənin beynindəki sinapslar kimi kiçik və ixtiyaridir. Sonra perseptrona bir sıra şəkilləri göstəririk, bəziləri nənənizlə, bəziləri isə yox. Əgər perseptron nənəni görəndə atəş açırsa və ya başqasını görəndə atəş açmırsa, onda heç bir təlimə ehtiyac yoxdur (işləyəni düzəltməyin). Amma əgər qavrayış nənəyə baxanda yanmırsa, bu o deməkdir ki, onun daxilolmalarının dəyərlərinin çəkili cəmi daha yüksək olmalı və aktiv girişlərin çəkiləri artırılmalıdır (məsələn, nənə qəhvəyi rəngdədirsə). -gözlü, bu xüsusiyyətin çəkisi artacaq). Əksinə, əgər perseptron lazım olmadıqda işə düşürsə, aktiv girişlərin çəkiləri azaldılmalıdır. Səhvlər öyrənmənin mühərrikidir. Zamanla, bir nənəni göstərən əlamətlər çox çəki alacaq, olmayanlar isə bir az. Perseptron həmişə nənənizi görəndə atəş açmağa başlayanda və yalançı pozitivlər yox olduqdan sonra məşq başa çatır.

Perceptron elmi ictimaiyyətdə həvəs oyatdı. O, sadə idi, lakin eyni zamanda çap edilmiş hərfləri və nitq səslərini tanıyırdı: bunun üçün yalnız nümunələrlə məşq etmək lazımdır. Rosenblatt-ın Kornell Universitetindəki həmkarı sübut etdi ki, müsbət və mənfi nümunələri hiperplan ilə ayırmaq olarsa, qavrayış cihazı bu müstəvini tapacaq. Rosenblatt və digər elm adamları beynin öyrəndiyi prinsipləri və onunla birlikdə güclü çoxməqsədli öyrənmə alqoritmini başa düşmək olduqca mümkün görünürdü.

Lakin sonra perseptron divara çırpıldı. Bilik mühəndisləri Rosenblatt-ın iddialarından əsəbiləşdilər: onlar ümumiyyətlə neyron şəbəkələrin və xüsusilə də qavrayışların cəlb etdiyi diqqət və maliyyəyə qısqanclıqla yanaşdılar. Belə tənqidçilərdən biri də Rosenblattın Elm üzrə keçmiş sinif yoldaşı Marvin Minski idi. Ali məktəb Bronksda, o vaxta qədər Massaçusets Texnologiya İnstitutunda süni intellekt qrupuna rəhbərlik edirdi. (Maraqlıdır ki, onun dissertasiyası neyron şəbəkələri ilə bağlı idi, lakin sonra o, onlardan məyus oldu.) 1969-cu ildə Minski və həmkarı Seymur Papert “Perceptrons: an Introduction to Computational Geometry” kitabını nəşr etdilər və burada bir-bir ətraflı təsvir etdilər. , eyniadlı alqoritmin öyrənə bilmədiyi sadə şeylər. Ən sadə və buna görə də ən ölümcül nümunə XOR funksiyasıdır (XOR kimi qısaldılır), bu, hər iki girişdən biri doğru olduqda doğrudur. Məsələn, Nike məhsulları üçün ən sadiq iki müştəri qrupu yeniyetmə oğlanlar və orta yaşlı qadınlardır. Başqa sözlə, gənc XOR qadınısınızsa, Nike qaçış ayaqqabılarını alma ehtimalınız daha yüksəkdir. Gənclik uyğundur, qadın cinsi də, lakin hər iki faktor bir anda deyil. Əgər gənc deyilsinizsə və qadın deyilsinizsə, Nike reklamı üçün də perspektivsiz bir hədəfsiniz. XOR ilə bağlı problem müsbət nümunələri mənfi olanlardan ayıra biləcək düz xəttin olmamasıdır. Şəkildə iki uyğun olmayan namizəd göstərilir:

Perseptronlar yalnız xətti sərhədləri tapa bildikləri üçün XOR onlar üçün mövcud deyil və əgər onlar hətta buna qadir deyillərsə, onda perseptron deyil. ən yaxşı model beyin necə öyrənir və Master Alqoritmlər üçün uyğun olmayan bir namizəd.

Perseptron yalnız bir neyronun öyrənilməsini modelləşdirir. Minski və Papert bir-biri ilə əlaqəli neyron təbəqələrinin daha çox şeyə qadir olduğunu başa düşdülər, lakin belə təbəqələri necə öyrətməyi başa düşmədilər. Digər elm adamları da bunu bilmirdilər. Problem ondadır ki, çıxış təbəqəsindəki neyronların xətalarını azaltmaq üçün “gizli” təbəqələrdəki neyronların çəkisini dəyişməyin aydın yolu yoxdur. Hər bir gizli neyron çıxışa bir çox cəhətdən təsir edir və hər bir səhvin minlərlə ataları var. Kimi günahlandırmalı? Və əksinə, düzgün çıxış yolu üçün kimə təşəkkür etmək lazımdır? Etibar faktorlarının təyin edilməsi problemi hər dəfə mürəkkəb bir modeli öyrətməyə çalışdığımız zaman ortaya çıxır və maşın öyrənməsinin əsas problemlərindən biridir.

Perseptronlar olduqca aydın, riyazi cəhətdən qüsursuz idi və o günlərdə əsasən neyron şəbəkələri ilə əlaqəli olan maşın öyrənməsinə fəlakətli təsir göstərdi. Əksər tədqiqatçılar (sponsorları demirəm) belə nəticəyə gəldilər ki, intellektual sistem qurmağın yeganə yolu onu açıq şəkildə proqramlaşdırmaqdır, ona görə də bilik mühəndisliyi elmdə 15 il hökmranlıq etdi və maşın öyrənməsi tarixin zibilliyində qalmağa məhkum görünürdü.

Fizik şüşədən beyin düzəldir

Maşın öyrənmə tarixi ilə bağlı Hollivud blokbasteri çəkilsəydi, Marvin Minski əsas cani – Snow White-a zəhərli alma verib meşəyə atan şər kraliça olardı (1988-ci ildə Seymur Papert hətta zarafatla da yazdığı essedə) özünü kraliçanın Qar Ağı öldürmək üçün meşəyə göndərdiyi ovçu ilə müqayisə etdi). Ağ atlı şahzadə Con Hopfild adlı bir Caltech fizikası olardı. 1982-ci ildə Hopfield, statistik fiziklərin çox sevdiyi ekzotik material olan beyin və spin eynəkləri arasında heyrətamiz bir oxşarlıq gördü. Bu kəşf bir neçə il sonra etimad əmsalı problemini həll etməyə qadir olan ilk alqoritmlərin ixtirası ilə kulminasiya nöqtəsinə çatan əlaqənin yenidən canlanmasına səbəb oldu. Bu, həm də süni intellekt elmində dominant paradiqma kimi maşın öyrənməsinin bilik mühəndisliyini yerindən çıxardığı yeni bir dövrün başlanğıcını qoydu.

Spin eynəklər əslində eynək deyil, baxmayaraq ki, bəzi şüşə kimi xüsusiyyətlərə malikdir. Əksinə, onlar maqnit materiallarıdır. Hər bir elektron kiçik bir maqnitdir, çünki onun yuxarı və ya aşağı istiqamətləndirə bilən spini var. Dəmir kimi materiallarda elektronların spinləri adətən eyni istiqamətdə düzülür: "aşağı" spinli elektron, "yuxarı" spinli elektronlarla əhatə olunarsa, onun çevrilməsi ehtimalı var. Dəmir parçasındakı fırlanmaların çoxu düzüldükdə o, maqnitə çevrilir. Adi maqnitlərdə bitişik spinlər arasında qarşılıqlı təsir qüvvəsi bütün cütlər üçün eynidir, lakin fırlanan şüşədə o, fərqli və hətta mənfi ola bilər, buna görə də bitişik spinlər əks istiqamət alır. Adi bir maqnitin enerjisi bütün spinlər düzülərsə, ən aşağıdır, lakin spin şüşəsində işlər o qədər də sadə deyil: ümumiyyətlə, spin şüşəsi üçün ən aşağı enerji vəziyyətini tapmaq NP-tam problemdir, yəni demək olar ki, hər hansı digər çətin optimallaşdırma problemi ona endirilə bilər. Nəticədə, spin şüşəsi mütləq ən aşağı enerji vəziyyətinə düşmür: o, qlobal deyil, minimum, yəni gedə biləcəyi bütün vəziyyətlərdən daha aşağı enerji vəziyyətində ilişib qala bilər. fırlanmanın dəyişdirilməsi. Bir çox cəhətdən bu, yağış suyunun birbaşa okeana deyil, gölə axmasına bənzəyir.

Hopfield spin şüşəsi ilə neyron şəbəkələri arasında maraqlı oxşarlıq müşahidə etdi. Elektronun fırlanması qonşularının davranışına neyron kimi reaksiya verir: qonşularının çəkisi həddi keçərsə yuxarı, yoxsa aşağı fırlanır (və ya dəyişmir). Bu faktdan ilhamlanan Hopfield, spin şüşəsi kimi zamanla inkişaf edən bir növ neyron şəbəkəsi müəyyən etdi və bu şəbəkə üçün minimum enerji vəziyyətlərinin onun xatirələri olduğunu irəli sürdü. Hər bir belə vəziyyət ona yaxınlaşan ilkin vəziyyətlər üçün “cazibə bölgəsini” təmsil edir və bunun sayəsində neyron şəbəkə nümunələri tanıya bilir: məsələn, yaddaşlardan biri ədədi təşkil edən qara və ağ piksellərdirsə. doqquz və təsvirdə təhrif olunmuş doqquz var, şəbəkə onu "ideal" rəqəmə endirəcək və tapacaq. Birdən maşın öyrənməsinə geniş spektrli fizika nəzəriyyələri tətbiq oluna bildi və bir çox statistik fiziklər intizamın içinə töküldü və onu sıxışdırıldığı yerli minimumdan çıxarmağa kömək etdi.

Bununla belə, spin şüşəsi hələ də beynin çox real olmayan modelidir. Birincisi, spin qarşılıqlı təsirləri simmetrikdir, lakin beyindəki neyronlar arasındakı əlaqə yoxdur. Hopfield modelinin diqqətdən kənarda qoyduğu digər böyük problem, real neyronların statistika qanunlarına uyğun fəaliyyət göstərməsi idi: onlar girişdən asılı olaraq deterministik olaraq açılıb-sönmür, əksinə, daha çox ehtimal olunur, lakin çəkili məbləğ olduqda işə salınması mütləq deyil. girişlərin sayı artır. 1985-ci ildə tədqiqatçılar David Oakley, Geoffrey Hinton və Terry Sejnowski Hopfield şəbəkələrindəki deterministik neyronları ehtimal neyronları ilə əvəz etdilər. Neyroşəbəkəyə vəziyyətləri üzrə ehtimal paylanması verildi və yüksək enerjili vəziyyətlər aşağı enerjili vəziyyətlərdən eksponent olaraq daha az olur. Müəyyən bir vəziyyətdə şəbəkənin tapılma ehtimalı termodinamikada məşhur Boltzman paylanması ilə verildi, buna görə də elm adamları şəbəkələrini Boltzmann maşını adlandırdılar.

Boltzmann maşını sensor və gizli neyronların qarışığından ibarətdir (məsələn, tor qişa və beyinə bənzər) və insan kimi yuxu və oyanmağı növbə ilə öyrənir. Oyanmış vəziyyətdə, sensor neyronlar məlumatlara uyğun olaraq atəş açır, gizli neyronlar isə şəbəkə dinamikası və sensor girişlərə uyğun olaraq inkişaf edir. Məsələn, şəbəkələr doqquzun şəklini göstərirsə, şəkildəki qara piksellərə uyğun gələn neyronlar işə düşəcək, digərləri sönük qalacaq və gizli neyronlar həmin piksel dəyərləri üçün Boltzman paylanmasına uyğun olaraq təsadüfi olaraq işə düşəcək. Yuxu zamanı sensor və gizli neyronlar sərbəst şəkildə dolaşır və yeni günün şəfəqindən əvvəl maşın yuxu zamanı və dünənki fəaliyyət zamanı öz vəziyyətlərinin statistikasını müqayisə edir və bu vəziyyətlərə uyğunlaşmaq üçün əlaqələrin çəkilərini dəyişir. Gün ərzində iki neyron adətən birlikdə və daha az yuxu zamanı atəşə tutulursa, onların əlaqəsinin çəkisi artacaq. Əks halda azalacaq. Gündən-günə sensor neyronlar arasında proqnozlaşdırılan korrelyasiya real olanlarla üst-üstə düşməyə başlayana qədər inkişaf edir: bu zaman Boltzman maşını yaxşı məlumat modeli əldə edir, yəni etimad əmsallarının təyin edilməsi problemi effektiv şəkildə həll olunur.

Geoff Hinton tədqiqatlarını davam etdirdi və sonrakı onilliklərdə Boltzmann maşınının bir çox variantını sınaqdan keçirdi. Kompüter alimi olan psixoloq və bütün rəqəmsal kompüterlərdə istifadə olunan məntiqi hesablamaların ixtiraçısı Corc Bulun böyük nəvəsi Hinton dünyanın aparıcı əlaqələndiricisidir. O, beynin necə işlədiyini anlamaq üçün başqalarından daha uzun və daha çox çalışdı. Hinton deyir ki, bir gün işdən evə gəlib həyəcanla qışqırıb: “Bəli! Beynin necə işlədiyini başa düşürəm!” Qızı ona cavab verdi: "Ata, yenə?!" AT son vaxtlar o, bu fəsildə daha sonra müzakirə edəcəyimiz dərin öyrənmə ilə maraqlandı və həmçinin Boltzman maşınlarından daha təkmil bir alqoritm olan səhvlərin geriyə yayılması metodunun hazırlanmasında iştirak etdi. problemin həlli etibar kreditlərinin verilməsi (bu barədə növbəti fəsildə danışılacaq). Boltzmann maşınları bu problemi prinsipcə həll edə bilər, lakin praktikada öyrənmə çox yavaş və çətindir, ona görə də bu yanaşma əksər hallarda praktiki deyil. Növbəti irəliləyiş üçün McCulloch və Pitts-ə qayıdan başqa bir həddən artıq sadələşdirmədən imtina edilməli idi.

Dünyanın ən vacib döngəsi

Qonşularına münasibətdə bir neyron yalnız iki vəziyyətdən birində ola bilər - aktiv və qeyri-aktiv. Bununla belə, bu yoxdur mühüm nüans. Fəaliyyət potensialı uzun sürmür: gərginlik saniyənin yalnız bir hissəsi üçün sıçrayır və dərhal istirahət vəziyyətinə qayıdır. Bu sıçrayış qəbul edən neyron tərəfindən çətinliklə qeydə alınır: hüceyrəni oyatmaq üçün qısa fasilələrlə bir sıra atlamalar lazımdır. Adi neyronlar vaxtaşırı və heç bir stimullaşdırmadan atəş açır. Stimulyasiya artdıqca, neyron getdikcə daha tez-tez atəş açır və sonra doyma səviyyəsinə çatır, onun bacara biləcəyi ən yüksək gərginlik sıçrayış tezliyi, bundan sonra daha çox stimullaşdırma heç bir təsir göstərmir. Neyron daha çox məntiq qapısına deyil, gərginlik-tezliyə çeviriciyə bənzəyir. Tezliyə qarşı gərginlik əyrisi belə görünür:

Bu uzanmış S-bənzər əyri fərqli adlanır: logistik, S şəkilli, sigmoid. Ona daha yaxından baxın, çünki bu, dünyanın ən vacib əyrisidir. Əvvəlcə çıxış girişlə birlikdə yavaş-yavaş artır: o qədər yavaş ki, sabit görünür. Sonra daha sürətli, sonra çox sürətlə dəyişməyə başlayır, daha sonra yavaş və yavaş və nəhayət, yenidən demək olar ki, sabit olur. Giriş və çıxış gərginliyini birləşdirən tranzistor əyrisi də S şəkillidir, buna görə də həm kompüterlər, həm də beyin S əyriləri ilə doludur. Ancaq bu hamısı deyil. Bütün növ faza keçidləri sigmoid formasına malikdir: tətbiq olunan sahədən asılı olaraq elektronun spin dəyişməsi ehtimalı, dəmirin maqnitləşməsi, sabit diskə bir qədər yaddaş yazılması, hüceyrədə ion kanalının açılması. , buzların əriməsi, suyun buxarlanması, gənc Kainatın inflyasiya ilə genişlənməsi, təkamüldə pozulmuş tarazlıq, elmi paradiqmaların dəyişməsi, yeni texnologiyaların yayılması, ağ əhalinin qarışıq ərazilərdən qaçması, şayiələr, epidemiyalar, inqilablar, imperiyaların süqutu və daha çox. Dönmə nöqtəsi: Kiçik şeylər necə böyük fərq yarada bilər (daha az cəlbedici olsa da) Sigmoid adlandırıla bilər. Zəlzələ iki bitişik tektonik plitələrin nisbi mövqeyinin faza dəyişməsidir və bəzən gecələr eşitdiyimiz tıqqıltı, sadəcə olaraq, evin divarlarında mikroskopik “tektonik plitələrin” yerdəyişməsidir, ona görə də narahat olmayın. Cozef Şumpeter iqtisadiyyatın çatlarda və sıçrayışlarda inkişaf etdiyini söylədi: yaradıcı məhvin də S forması var. Maliyyə qazancları və itkiləri də sigmoid boyunca insan xoşbəxtliyinə təsir göstərir, buna görə də həddindən artıq yüklənməyin və narahat olmayın. İxtiyari məntiqi düsturun təmin oluna bilmə ehtimalı - NP-tam məsələlərin mahiyyəti - formulun uzunluğu artdıqca, demək olar ki, birdən demək olar ki, sıfıra qədər faza keçidini izləyir. Statistik fiziklər bütün həyatları boyu faza keçidlərini öyrənə bilərlər.

Heminqueyin “Günəş də doğar” əsərində Mayk Kempbelldən necə müflis olduğunu soruşurlar və o cavab verir: “İki yol. Əvvəlcə tədricən, sonra birdən. Eyni şeyi Lehman Brothers-də də demək olar. Siqmoid sümükün mahiyyəti budur. Futuroloq Paul Saffo tərəfindən tərtib edilən proqnozlaşdırma qaydalarından biri S əyrilərini axtarmaqdır. Duşda rahat bir temperaturu "tutmaq" mümkün deyilsə - su əvvəlcə çox soyuq, sonra isə dərhal çox isti - S-əyrisini günahlandırın. Popkorn bişirəndə S formalı əyri boyunca inkişaf aydın görünür: əvvəlcə heç bir şey olmur, sonra bir neçə taxıl partlayır, sonra bir anda çoxlu olur, sonra demək olar ki, hamısı atəşfəşanlıqla partlayır, sonra bir az daha - və yeyə bilərsiniz. Əzələ hərəkətləri də siqmasi izləyir: yavaş, sürətli və yenidən yavaş: Disney animatorları bunu anlayıb təqlid etməyə başlayanda cizgi filmləri daha təbii oldu. Gözlər S-əyri boyunca hərəkət edir, şüurla birlikdə bu və ya digər obyektə sabitlənir. Faza keçidinə uyğun olaraq əhval dəyişir. Doğum, yetkinlik, aşiq olmaq, evlənmək, hamiləlik, işə getmək və işdən qovulmaq, başqa şəhərə köçmək, yüksəliş, təqaüdə çıxmaq və ölümlə eynidir. Kainat kosmikdən mikroskopikə, ən adidən həyatı dəyişən faza keçidlərinin nəhəng simfoniyasıdır.

Siqmoid təkcə bir model olaraq vacib deyil. Riyaziyyatda yorulmadan çalışır. Onun mərkəzi seqmentini yaxınlaşdırsanız, düz xəttə yaxın olacaq. Xətti hesab etdiyimiz bir çox hadisələr əslində S əyriləridir, çünki heç bir şey sonsuza qədər böyüyə bilməz. Nisbiliyə görə və Nyutonun əksinə olaraq, sürətlənmə artan qüvvə ilə xətti olaraq artmır, lakin sıfırda mərkəzləşmiş siqmoidi izləyir. Oxşar mənzərə asılılıqda da müşahidə olunur elektrik cərəyanı rezistorlardakı gərginlikdən elektrik dövrələri və ampullərdə (iplik əriyənə qədər, bu da özlüyündə başqa bir faza keçididir). Uzaqdan baxıldıqda, S əyrisi, eşik çıxışının birdən sıfırdan birə dəyişdiyi addım funksiyasına bənzəyir. Buna görə də, giriş gərginliyindən asılı olaraq, rəqəmsal kompüterlərdə və gücləndiricilər və tunerlər kimi analoq cihazlarda bir tranzistorun işləməsi eyni əyrini təsvir edəcəkdir. Siqmoidin ilkin seqmenti mahiyyətcə eksponensialdır və doyma nöqtəsinə yaxın, eksponensial çürüməyə yaxınlaşır. Kimsə eksponensial artımdan danışanda özünüzdən soruşun: o, nə qədər tez S əyrisinə çevriləcək? Əhalinin partlayıcı artımı yavaşlayanda, Mur qanunu öz imkanlarını tükəndirəcək və təklik gəlməyəcək? Siqmoidi fərqləndirin və Gauss əyrisini əldə edin: "yavaş - sürətli - yavaş" "aşağı - yüksək - aşağı" olur. Yuxarı və aşağı gedən bir sıra pilləli S əyriləri əlavə edin və sinus dalğasına yaxın bir şey əldə edirsiniz. Əslində, hər bir funksiyanı S əyrilərinin cəmi ilə yaxından təxmin etmək olar: funksiya yuxarı qalxdıqda siqmoid əlavə edirsiniz, aşağı düşəndə ​​isə çıxırsınız. Uşağın öyrənməsi tədricən təkmilləşmə deyil, S əyrilərinin yığılmasıdır. Bu, texnoloji dəyişikliklərə də aiddir. Nyu Yorka uzaqdan baxın və üfüqdə göydələnlərin küncləri kimi kəskin şəkildə açılan sigmoid əyrilər kolleksiyasını görəcəksiniz.

Bizim üçün ən vacibi odur ki, S əyriləri etimad əmsalları probleminin yeni həllinə gətirib çıxarır. Kainat faza keçidlərinin simfoniyası olduğu üçün gəlin onu faza keçidi ilə modelləşdirək. Beyin məhz bunu edir: o, daxildəki faza keçid sistemini xaricdəki oxşar sistemə uyğunlaşdırır. Beləliklə, gəlin qavrayışın addım funksiyasını siqmasi ilə əvəz edək və nə baş verdiyini görək.

Hiperkosmosda dırmaşmaq

Perseptron alqoritmində xəta siqnalı ya hamı və ya heç nə prinsipi əsasında işləyir: ya düzgün, ya da yanlış. Xüsusilə çoxlu neyronların şəbəkələri vəziyyətində seyrək. Çıxış neyronunun səhv olduğunu başa düşə bilərsiniz (oh, bu sizin nənəniz deyildi?), Bəs beynin dərinliklərindəki bəzi neyronlar haqqında nə demək olar? Və ümumiyyətlə, dərin bir neyron üçün doğru və yanlış nə deməkdir? Bununla belə, neyronun çıxışı ikili deyil, davamlıdırsa, şəkil dəyişir. İlk növbədə qiymətləndirə bilərik nə qədər qəbul edilən və istədiyiniz çıxış arasındakı fərqə görə çıxış neyronu səhvdir. Əgər neyron aktivliklə parıldayırsa (“Oh, nənə! Salam!”) və bir az aktivdirsə, bu, ümumiyyətlə atəş açmamasından daha yaxşıdır. Daha da əhəmiyyətlisi, indi bu səhvi gizli neyronlara da genişləndirə bilərik: əgər çıxış neyronu daha aktiv olmalıdırsa və onunla əlaqəli neyron A, onda neyron daha aktivdir A, onlar arasındakı əlaqəni bir o qədər gücləndirməliyik. Əgər a A bir neyron tərəfindən sıxışdırılır B, sonra B az aktiv olmalıdır və s. Əlaqədar olduğu bütün neyronların rəyi sayəsində hər bir neyron nə qədər çox və ya daha az atəş açacağına qərar verir. Bu və fəaliyyət öz giriş neyronları ona onlarla əlaqəni gücləndirmək və ya zəiflətmək barədə diktə edir. Mən daha aktiv olmalıyam və neyron B məni sıxışdırır? Beləliklə, onun çəkisi azaldılmalıdır. Bir neyron Cçox aktivdir, amma mənimlə əlaqəsi zəifdir? Onu gücləndirək. Növbəti raundda, şəbəkənin daha aşağısında yerləşən müştəri neyronları mənə tapşırığı nə qədər yaxşı yerinə yetirdiyimi söyləyəcək.

Öyrənmə alqoritminin “torlu qişası” hər dəfə yeni bir görüntü görəndə siqnal çıxış verənə qədər şəbəkəyə yayılır. Alınan çıxışı istənilən nəticə ilə müqayisə etdikdə xəta siqnalı yaranır, sonra bu siqnal bütün təbəqələrdə geri yayılır və retinaya çatır. Geri dönən siqnal və irəli keçid zamanı alınan girişlərə əsasən, hər bir neyron çəkiləri tənzimləyir. Şəbəkə nənənizin və digər insanların getdikcə daha çox şəkillərini gördükcə, çəkilər tədricən birini digərindən ayırmağa imkan verən dəyərlərə yaxınlaşır. Geri yayılma metodu, bu alqoritmin adlandığı kimi, qavrayışdan daha güclüdür. Tək neyron yalnız düz xətt tapa bilər, lakin çoxqatlı qavrayış adlanan element kifayət qədər gizli neyronlara malik olmaq şərti ilə özbaşına dolaşıq sərhədlər tapa bilər. Bu, geri yayılmağı əlaqəçilərin ən yüksək alqoritminə çevirir.

Geri yayılma təbiətdə və texnologiyada çox yayılmış strategiyanın xüsusi halıdır: dağa tez qalxmaq lazımdırsa, tapa biləcəyiniz ən dik yamacı götürün. Bu fenomen üçün texniki termin "qradiyent yüksəliş" (əgər zirvəyə çıxmaq istəyirsinizsə) və ya "qradiyent eniş" (aşağıdakı vadiyə baxsanız). Bakteriyalar, məsələn, qlükoza konsentrasiyası qradiyenti boyunca hərəkət edərək qida axtara bilir və qradientinə qarşı hərəkət edərək zəhərlərdən qaça bilirlər. Qradient enmə təyyarə qanadlarından tutmuş antena sistemlərinə qədər bir çox şeyi optimallaşdıra bilər. Geri yayılma bunu çoxqatlı qavrayışda optimallaşdırmağın effektiv üsuludur: xəta ehtimalını azaltmaq üçün çəkiləri tənzimləməyə davam edin və tənzimləmələrin işləmədiyi aydın olduqda dayandırın. Geri yayılma vəziyyətində, hər bir neyronun çəkisini sıfırdan necə tənzimləmək lazım olduğunu başa düşmək lazım deyil (bu çox yavaş olardı): siz bu təbəqəni qat-qat edə bilərsiniz, hər bir neyronu artıq köklənmişlərə əsaslanaraq tənzimləyə bilərsiniz. hansı bağlıdır. Əgər daxil təcili bütün maşın öyrənmə alətlərini atıb bir şeyi saxlamalısan, yəqin ki, gradient enişini saxlamağa qərar verərsən.

Bəs geri yayılma maşın öyrənməsi problemini necə həll edir? Bəlkə sadəcə olaraq bir dəstə neyron toplamaq, onlar sizə lazım olan hər şeyi sehrləyənə qədər gözləmək və sonra beynin necə işləməsi prinsipini kəşf etmək üçün Nobel mükafatını almaq üçün banka gedən yolda dayanmaq lazımdır? Təəssüf ki, həyat o qədər də sadə deyil. Təsəvvür edin ki, şəbəkənizin yalnız bir çəkisi var; xətanın ondan asılılığı bu qrafikdə göstərilir:

Xətanın ən az olduğu optimal çəki 2.0-dır. Şəbəkə, məsələn, 0,75-dən başlayırsa, səhvin geri yayılması bir neçə addımda optimala çatacaq, məsələn, təpədən aşağı yuvarlanan bir top kimi. Ancaq 5.5-dən başlasaq, 7.0-a sürüşürük və orada ilişib qalırıq. Çəkilərdə artan dəyişikliklərlə səhvin geri yayılması səhvin qlobal minimumunu tapa bilməyəcək və yerli minimumlar özbaşına pis ola bilər: məsələn, bir nənə şapka ilə qarışdırıla bilər. Yalnız bir çəki varsa, bütün mümkün dəyərləri 0,01 artımla sınaya və optimalı tapa bilərsiniz. Ancaq milyonlarla və ya milyardlarla deyil, minlərlə çəki olduqda, bu seçim deyil, çünki şəbəkədəki nöqtələrin sayı çəkilərin sayı ilə eksponent olaraq artacaq. Qlobal minimum hiperkosmosun dibsiz dərinliklərində hardasa gizlənəcək - ot tayasında iynə axtarın.

Təsəvvür edin ki, sizi qaçırıblar, gözlərini bağlayıblar və Himalayların bir yerində tərk ediblər. Baş parçalanır, yaddaşı çox yaxşı deyil, ancaq Everestin zirvəsinə qalxmağınız lazım olduğunu dəqiq bilirsiniz. Necə olmaq? İrəli bir addım atıb az qala dərəyə sürüşəcəksən. Nəfəs alaraq, daha sistemli olmağa qərar verirsiniz və ən yüksək nöqtəni təyin etmək üçün ayağınızla ətrafdakı yeri diqqətlə hiss edirsiniz. Sonra cəsarətlə ona doğru addımlayırsan və hər şey təkrarlanır. Yavaş-yavaş daha yüksəklərə qalxırsan. Bir müddət sonra hər hansı bir addım aşağı getməyə başlayır və siz dayanırsınız. Bu gradient yüksəlişdir. Himalayda yalnız bir Everest və ideal konusvari forma olsaydı, hər şey yaxşı olardı. Ancaq çox güman ki, bütün pilləkənlərin aşağı düşdüyü yer hələ də yuxarıdan çox uzaqda olacaq: sadəcə aşağıda hansısa təpədə ilişib qalacaqsınız. Geri yayılma ilə məhz bu baş verir, yalnız bizimki kimi 3D-də deyil, hiperkosmosda dağlara dırmaşır. Əgər şəbəkəniz bir neyrondan ibarətdirsə və siz addım-addım ən yaxşı çəkilərə qalxırsınızsa, o zaman zirvəyə çıxacaqsınız. Ancaq çox qatlı qavrayışda mənzərə çox sərtdir - gedin ən yüksək zirvəni tapın.

Minski, Papert və digər tədqiqatçıların çoxqatlı qavrayışların necə öyrədildiyini başa düşməmələrinin səbəbi də budur. Onlar addım funksiyalarını S-əyriləri və qradiyent enmə ilə əvəz etməyi təsəvvür edə bildilər, lakin sonra yerli xəta minimumu problemi ilə üzləşdilər. O zaman alimlər kompüter simulyasiyalarına etibar etmirdilər və alqoritmin işinin riyazi sübutunu tələb edirdilər və əks yayılma üçün belə bir sübut yox idi. Lakin, gördüyümüz kimi, əksər hallarda yerli minimum kifayətdir. Səhv səthi tez-tez kirpiyə bənzəyir: çoxlu sıldırım zirvələr və çökəkliklər və ən dərin, mütləq çökəkliyi tapmağımızın əslində heç bir əhəmiyyəti yoxdur - hər hansı bir şey edəcək. Daha yaxşısı, yerli minimuma hətta üstünlük verilir, çünki o, qlobal minimuma nisbətən həddindən artıq uyğunlaşmaya daha az meyllidir.

Hyperspace iki tərəfli qılıncdır. Bir tərəfdən daha daha çox miqdarölçmələr, çox mürəkkəb səthlər və yerli ekstremallar üçün daha çox yer. Digər tərəfdən, yerli ekstremumda ilişib qalmaq üçün içəri girməlisiniz hamısıölçülərə malikdir və eyni anda bir çoxunda ilişib qalmaq üçdən daha çətindir. Hyperspace bütün (hiper) relyefdən keçən keçidlərə malikdir, buna görə də bir az insan köməyi ilə geri yayılma çox vaxt mükəmməl yaxşı çəkilər dəstinə yol tapa bilər. Bəlkə də bu, dəniz səviyyəsi deyil, sadəcə əfsanəvi Şanqri-La vadisidir, amma hiperkosmosda milyonlarla belə dərə və hər birinə aparan milyardlarla keçid varsa, nədən şikayət etmək olar?

Bununla belə, geri yayılmanın tapdığı çəkilərə çox da əhəmiyyət vermək olmaz. Unutmayın ki, çox fərqli, lakin eyni olanlar var yaxşı variantlar. Çox qatlı qavrayış qabiliyyətini öyrənmək o mənada xaotikdir ki, bir qədər fərqli yerlərdən başlayaraq, çox şeyə gətirib çıxara bilər. müxtəlif həllər. Bu fenomen həm orijinal çəkilərdə, həm də təlim məlumatlarında kiçik fərqlər olduqda baş verir və yalnız geri yayılma deyil, bütün güclü öyrənmə alqoritmlərində baş verir.

Biz Biz bacararıq Siqmoidlərimizi çıxararaq və hər bir neyronun yalnız öz girişlərinin ağırlıqlı cəmini çıxarmasına icazə verməklə yerli ekstremal problemdən qurtulun. Bu vəziyyətdə səhv səthi çox hamar olacaq və yalnız bir minimum qalacaq - qlobal. Məsələ ondadır ki, xətti funksiyadır xətti funksiyalar hələ də xətti funksiyadır, ona görə də xətti neyronlar şəbəkəsi tək bir neyrondan yaxşı deyil. Xətti beyin, nə qədər böyük olursa olsun, bir qurddan daha axmaq olacaq. S-əyriləri xətti funksiyaların axmaqlığı ilə addım funksiyalarının mürəkkəbliyi arasında sadəcə yaxşı bir mərhələdir.

Perseptronlar Geri zərbə vurur

Backpropagation 1986-cı ildə San Dieqo Universitetinin psixoloqu David Rumelhart tərəfindən Jeff Hinton və Ronald Williams ilə əməkdaşlıqda icad edilmişdir. Onlar, digər şeylərlə yanaşı, arxa yayılmanın XOR-u idarə edə biləcəyini sübut etdilər və bununla da əlaqələndiricilərə Minski və Papertlə dillərini danışmaq imkanı verdilər. Nike idman ayaqqabısı nümunəsini düşünün: onların ən çox alıcıları yeniyetmələr və orta yaşlı qadınlardır. Bu, üç neyron şəbəkəsi ilə təmsil oluna bilər: biri yeniyetməni, digəri orta yaşlı qadını, üçüncüsü isə hər ikisi alovlananda atəş açır. Geri yayılma sayəsində siz uyğun çəkiləri öyrənə və uğurlu Nike potensial alıcı detektoru əldə edə bilərsiniz. (Doğrudur, Marvin.)

Terri Seynowski və Çarlz Rozenberq geri yayılmanın gücünün ilk nümayişlərində çoxqatlı qavrayış aparatını ucadan oxumağa öyrətdi. Onların NETtalk sistemi mətni skan etdi, fonemləri kontekstə uyğunlaşdırdı və onları nitq sintezatoruna verdi. NETtalk biliyə əsaslanan sistemlərin edə bilmədiyi yeni sözlər üçün nəinki düzgün ümumiləşdirmələr etdi, həm də insan kimi danışmağı öyrəndi. Sejnowski elmi tədbirlərdə NETtalk məşq lentini ifa etməklə auditoriyanı ovsunlamağı xoşlayırdı: əvvəlcə boşboğazlıq, sonra daha başa düşülən bir şey və nəhayət, təsadüfi səhvlərlə olduqca hamar nitq. (YouTube-da nümunələr üçün Sejnowski nettalk axtarışı.)

Neyroşəbəkələrin ilk böyük uğuru fond bazarının proqnozlaşdırılması idi. Şəbəkələr çox səs-küylü məlumatlarda kiçik qeyri-xəttiləri aşkar edə bildiyi üçün onlar populyarlıq qazanmış və maliyyədə yayılmış xətti modelləri əvəz etmişlər. Tipik bir investisiya fondu çoxsaylı qiymətli kağızların hər biri üçün şəbəkələr hazırlayır, sonra sizə ən perspektivlilərini seçməyə imkan verir, bundan sonra insan analitikləri hansı birinə investisiya qoymağa qərar verirlər. Bununla belə, bir sıra fondlar bütün yolu getdi və maşın öyrənmə alqoritmlərinin özbaşına alqı-satqısına icazə verdi. Tam olaraq neçəsinin uğur qazandığı sirrdir, lakin öyrənənlər həyəcan verici bir sürətlə hedcinq fondlarının dərinliklərində yoxa çıxdıqca, yəqin ki, bir şey var.

Qeyri-xətti modellər təkcə birjada vacib deyil. Alimlər hər yerdə xətti reqressiyadan istifadə edirlər, çünki onlar bunu yaxşı bilirlər, lakin tədqiq olunan hadisələr çox vaxt qeyri-xətti olur və çoxqatlı qavrayış onları modelləşdirə bilir. Xətti modellər faza keçidlərini görmür və neyron şəbəkələri onları süngər kimi qəbul edir.

Erkən neyron şəbəkələrinin digər diqqətəlayiq uğuru avtomobil idarə etməyi öyrənmək idi. Özünü idarə edən avtomobillər ilk dəfə 2004 və 2005-ci illərdə DARPA Grand Challenge-də diqqət mərkəzində olmuşdu, lakin on ildən çox əvvəl Karnegi Mellon Universitetinin alimləri avtomobil idarə etmək üçün çoxqatlı perseptronu uğurla öyrətmişdilər: videoda yolu tanımaq və sükanı çevirmək in doğru yer. Bir insan ikinci pilotun kiçik köməyi ilə bu avtomobil "görmə" çox bulanıq (30 × 32 piksel) və beyni bir qurddan kiçik olsa da, okeandan okeana qədər ABŞ-ı gəzməyi bacardı. . (Layihə Amerikada No Hands adlanırdı.) O, ilk həqiqətən özü idarə olunan avtomobil olmaya bilərdi, lakin hətta sükan arxasında olan əksər yeniyetmələrdən fərqlənirdi.

Backpropagation çox sayda tətbiqə malikdir. Onun şöhrəti artdıqca, onun tarixi daha da artdı. Məlum oldu ki, elmdə tez-tez olduğu kimi, metod bir neçə dəfə icad edilmişdir: Fransız kompüter alimi Jan LeKun və digər elm adamları Rumelhartla eyni vaxtda ona rast gəldilər. Hələ 1980-ci illərdə aparıcı süni intellekt konfransında geri yayılma ilə bağlı hesabat rədd edildi, çünki rəyçilərin fikrincə, Minski və Papert perseptronların işləmədiyini sübut etdilər. Ümumiyyətlə, Rumelhart metodu "Kolumb testi" ilə ixtira etdiyinə görə hesab olunur: Kolumb Amerikanı kəşf edən ilk insan deyildi, amma sonuncu idi. Belə çıxır ki, Harvard aspirantı Pol Verbos 1974-cü ildə dissertasiyasında oxşar alqoritm təklif edib və ən böyük ironiya odur ki, nəzarət nəzəriyyəçiləri Artur Brayson və He Yuqi buna 1969-cu ildə - məhz Minski və Papertin öz kitabını nəşr etdirdiyi vaxt nail olublar. Perseptronlar! Beləliklə, maşın öyrənmə tarixinin özü bizə öyrənmə alqoritmlərinə nə üçün ehtiyac duyduğunu göstərir: əgər alqoritmlər avtomatik olaraq 1969-cu ildən bəri bir mövzu ilə bağlı məqalələrin elmi ədəbiyyatda olduğunu aşkar etsəydi, onillikləri boş yerə sərf etməzdik və kim bilir, hansı kəşflərin daha tez ediləcəyini.

Perseptronun tarixində bir çox istehza var, amma kədərlisi odur ki, Frank Rosenblatt heç vaxt yaradıcılığının ikinci aktını görməmişdir: o, eyni 1969-cu ildə Chesapeake körfəzində boğuldu.

Tam hüceyrə modeli

Canlı hüceyrə qeyri-xətti sistemin mükəmməl nümunəsidir. O, bütün funksiyalarını xammalı son məhsula çevirən mürəkkəb kimyəvi reaksiyalar şəbəkəsi vasitəsilə yerinə yetirir. Əvvəlki fəsildə gördüyümüz kimi, bu şəbəkənin strukturunu simvolik üsullardan, məsələn, əks deduksiyadan istifadə etməklə aşkar etmək olar, lakin hüceyrənin işinin tam modelini qurmaq üçün kəmiyyət yanaşması lazımdır: bu şəbəkənin strukturunu müəyyən etmək lazımdır ki, bu parametrləri tapmaq lazımdır. müxtəlif genlərin ifadə səviyyəsini əlaqələndirin, dəyişənləri əlaqələndirin mühit daxili dəyişənlərlə və s. Bu, asan deyil, çünki bu kəmiyyətlər arasında sadə xətti əlaqə yoxdur. Əksinə, hüceyrə kəsişən əks əlaqə dövrələri vasitəsilə sabitliyini qoruyur və onun davranışı çox mürəkkəbdir. Bu problemi həll etmək üçün qeyri-xətti funksiyaları effektiv şəkildə öyrənməyə qadir olan geri yayılma üsulu yaxşı uyğun gəlir. Əgər əlimizdə tam metabolik zəncir xəritəsi və bütün müvafiq dəyişənlər üzrə kifayət qədər müşahidə məlumatımız olsaydı, təfərrüatlı hüceyrə modeli nəzəri olaraq geri yayıla bilər və çoxqatlı qavrayış hər hansı dəyişəni onun yaxın səbəblərindən asılı olaraq proqnozlaşdıra bilərdi.

Bununla belə, yaxın gələcək üçün hüceyrə metabolizmasını yalnız qismən başa düşəcəyik və ehtiyac duyduğumuz parametrlərin yalnız bir hissəsini müşahidə edə biləcəyik. Qeyri-kafi məlumat və qaçılmaz ziddiyyətlər qarşısında faydalı modellər yaratmaq üçün Bayes metodlarına ehtiyac var, biz bunları Fəsil 6-da nəzərdən keçirəcəyik. Eyni şey, əgər model artıq mövcuddursa, pasiyent üçün xüsusi proqnozlar üçün də keçərlidir: Bayesian nəticə çıxarmaqdan maksimum istifadə edəcək. istər-istəməz natamam və səs-küylü şəkil. Yaxşı xəbər budur ki, xərçəngin müalicəsi üçün şiş hüceyrələrinin fəaliyyətini tam və bütün detallarla başa düşmək lazım deyil: sadəcə onları normal hüceyrələrə zərər vermədən zərərsizləşdirmək kifayətdir. 6-cı fəsildə bilmədiyimiz və bilməli olduğumuz şeylərdən yan keçərək öyrənməni düzgün istiqamətləndirməyi görəcəyik.

Bu mərhələdə biz bilirik ki, məlumatlara və əvvəlki biliklərə əsaslanaraq geri çıxmadan istifadə edərək mobil şəbəkələrin strukturu haqqında nəticə çıxarmaq mümkündür, lakin onun tətbiqi yollarının sayı kombinator partlayışı yaradır, ona görə də bir növ strategiya tələb olunur. Metabolik şəbəkələr təkamül tərəfindən tərtib edildiyi üçün, bəlkə də öyrənmə alqoritmlərində təkamülü simulyasiya etmək düzgündür. Növbəti fəsildə bunu necə edəcəyimizi görəcəyik.

Beynin dərinliklərində

Geri yayılma üsulu "insanlara getdikdə" əlaqəçilər təsəvvür etdilər sürətli öyrənmə aparat imkan verərsə, süni beyinə bərabər olana qədər daha böyük və daha böyük şəbəkələr. Məlum oldu ki, hər şey səhvdir. Bir gizli təbəqə ilə şəbəkələrin hazırlanması yaxşı keçdi, lakin bundan sonra hər şey daha mürəkkəbləşdi. Çox qatlı şəbəkələr yalnız müəyyən bir tətbiq üçün (məsələn, xarakterin tanınması) diqqətlə tərtib edildikdə işləyirdi və bundan əlavə, geri yayılma uğursuz oldu. Qatlar əlavə olunduqca, səhv siqnalı getdikcə daha çox ayrıldı, məsələn, kiçik kanallara ayrı-ayrı hiss olunmayan damcılara qədər budaqlanan bir çay kimi. Beyində olduğu kimi onlarla və ya yüzlərlə gizli təbəqə ilə öyrənmək uzaq bir xəyal olaraq qaldı və 1990-cı illərin ortalarında çoxqatlı qavrayışlarla bağlı həyəcan səngidi. Bağlantı əsası təslim olmadı, lakin ümumi diqqət maşın öyrənməsinin digər sahələrinə keçdi (bunları 6 və 7-ci fəsillərdə görəcəyik).

Ancaq bu gün əlaqə yenidən canlanır. Biz həmişəkindən daha dərin şəbəkələr öyrədirik və onlar görmə, nitqin tanınması, narkotik vasitələrin kəşfi və s. sahələrdə yeni standartlar müəyyən edirlər. Yeni ərazi- dərin öyrənmə - hətta New York Times-ın ön səhifəsində də çıxdı, amma kapotun altına baxsanız, orada eyni köhnə mühərrikin səsləndiyini görəndə təəccüblənəcəyik - səhvin arxaya yayılması üsulu. Nə dəyişdi? Ümumiyyətlə, yeni bir şey yoxdur, tənqidçilər deyəcəklər: sadəcə olaraq kompüterlər daha sürətli oldu və daha çox məlumat var. Bu Hinton və başqaları cavab verəcəklər: “Dəqiq! Biz tamamilə haqlı idik!”

Əslində, Connectionistlər böyük irəliləyişlər əldə etdilər. Ən son qoşulma roller sahil gəmisinin qəhrəmanlarından biri avtomatik kodlaşdırıcı adlanan təvazökar kiçik cihaz, giriş kimi qəbul edildiyini tam olaraq çıxaran çoxqatlı qavrayış cihazı olmuşdur. Nənənizin şəklini çəkir və eyni şəkli qaytarır. İlk baxışdan bu, axmaq bir fikir kimi görünə bilər: hətta bu şeyi harada istifadə edə bilərsiniz? Amma bütün məsələ ondadır ki, gizli təbəqə giriş və çıxışdan xeyli kiçikdir, yəni şəbəkə sadəcə olaraq girişi gizli təbəqəyə, gizli təbəqəni isə çıxışa köçürməyi öyrənə bilməz, çünki bu halda aparat hec yaxsi deyil. Bununla belə, əgər gizli təbəqə kiçikdirsə, maraqlı bir şey baş verir: şəbəkə girişi gizli təbəqədə təmsil etmək üçün sadəcə bir neçə bitlə kodlaşdırmağa məcbur olur və sonra həmin bitlər tam ölçüyə qaytarılır. Sistem, məsələn, nənənin milyon piksellik şəklini cəmi yeddi hərflə - "nənə" sözü - və ya öz ixtirasının bəzi qısa kodu ilə kodlamağı öyrənə və eyni zamanda bu sözü şəkilə çevirməyi öyrənə bilər. ürəyinizcə olan bir pensiyaçı. Beləliklə, avtokodlayıcı fayl sıxılma alətinə bənzəyir, lakin iki üstünlüyə malikdir: o, necə sıxılacağını başa düşür və Hopfield şəbəkələri kimi səs-küylü, təhrif olunmuş təsviri yaxşı və təmiz birinə çevirə bilər.

Avtokodlayıcılar 1980-ci illərdən bəri tanınır, lakin yalnız bir gizli təbəqəyə malik olmasına baxmayaraq, onları öyrənmək çox çətin idi. Çoxlu məlumatı bir neçə bitə necə yığmaq lazım olduğunu tapmaq cəhənnəm problemidir (bir kod nənəniz üçün, babanız üçün bir az fərqli kod, Cennifer Aniston üçün başqa kod və s.): hiperkosmos mənzərəsi yaxşı zirvəyə qalxmaq üçün çox möhkəmdir və gizli elementlər girişin artıq XOR-un nədən ibarət olduğunu öyrənməlidir. Bu problemlərə görə avtokodlayıcılar o zaman həqiqətən kök salmadı. Çətinlikləri aradan qaldırmaq üçün on ildən çox vaxt lazım idi. Aşağıdakı hiylə icad edilmişdir: gizli təbəqə giriş və çıxışdan daha böyük olmalıdır. Nə verəcək? Bu əslində həllin yalnız yarısıdır: ikinci hissə müəyyən sayda gizli bölmədən başqa hamısını söndürməyə məcbur etməkdir. Bu an. Bu, hələ də gizli təbəqənin sadəcə girişi kopyalamasına mane olur və ən əsası öyrənməni çox asanlaşdırır. Fərqli bitlərin fərqli girişləri təmsil etməsinə icazə versək, girişlər eyni bitləri təyin etmək üçün rəqabəti dayandıracaq. Bundan əlavə, şəbəkə daha çox parametrlərə sahib olacaq, buna görə də hiperməkan daha çox ölçülərə və buna görə də yerli maksimuma çevrilə biləcək şeylərdən çıxış yollarına sahib olacaq. Bu səliqəli hiylə seyrək avtokodlayıcı adlanır.

Bununla belə, biz hələ həqiqətən dərin öyrənmə görməmişik. Növbəti çətin fikir, seyrək avtokodlayıcıları böyük bir sendviç kimi bir-birinin üstünə yığmaqdır. Birincinin gizli təbəqəsi ikincinin giriş/çıxışına çevrilir və s. Neyronlar qeyri-xətti olduğundan, hər bir gizli təbəqə əvvəlkinə əsaslanaraq daha mürəkkəb giriş təsvirlərini öyrənir. Əgər üz təsvirlərinin böyük dəsti varsa, birinci avtokodlayıcı künclər və nöqtələr kimi kiçik xüsusiyyətləri kodlamağı öyrənəcək, ikincisi bundan burnun ucu və iris kimi üz xüsusiyyətlərini kodlaşdırmaq üçün istifadə edəcək, üçüncüsü bütövlükdə kodlaşdırmağı öyrənəcək. burunlar və gözlər və s. Nəhayət, üst təbəqə ənənəvi perseptron ola bilər - o, aşağıdakı təbəqənin təmin etdiyi yüksək səviyyəli xüsusiyyətlərdən nənənizi tanımağı öyrənəcək. Bu, yalnız bir gizli təbəqənin xam məlumatından istifadə etməkdən və ya birdən bütün təbəqələr arasında geri yayılmağa çalışmaqdan daha asandır. New York Times tərəfindən reklam edilən Google Brain Network, YouTube videolarından pişikləri tanımağı öyrənən doqquz qat avtomatik kodlayıcı və digər inqrediyentlərdən ibarət sendviçdir. O zaman bu şəbəkə indiyə qədər öyrədilmiş ən böyük şəbəkə idi: onun milyardlarla əlaqəsi var idi. Təəccüblü deyil ki, layihə rəhbərlərindən biri olan Endryu Nq insan şüurunun bir alqoritmə endirilməsi və onu tapmağın kifayət qədər asan olması ideyasının qızğın tərəfdarıdır. Yumşaq davranışı ilə inanılmaz ambisiyaları gizlədən Eun əmindir ki, çox səviyyəli seyrək avtomatik kodlayıcılar bizi süni intellekt tapmacasına indiyə qədər yaşadığımız hər şeydən daha da yaxınlaşdıra bilər.

Çox səviyyəli avtokodlayıcılar dərin öyrənmə alqoritmlərinin yeganə növü deyil. Digəri Boltzman maşınlarına əsaslanır, əyri neyron şəbəkələrində vizual korteksin modelləri var. Ancaq diqqətəlayiq irəliləyişlərə baxmayaraq, bütün bunlar hələ də beyindən çox uzaqdır. Google şəbəkəsi pişik üzlərini ancaq öndən tanıya bilir və insan pişiyi istənilən mövqedə, hətta üz döndərsə belə tanıyır. Bundan əlavə, Google şəbəkəsi hələ də kifayət qədər kiçikdir: avtokodlayıcılar onun doqquz qatından yalnız üçünü təşkil edir. Çox qatlı perseptron, aşağı səviyyəli hərəkətə nəzarət üçün cavabdeh olan beynin hissəsi olan serebellumun qənaətbəxş modelidir. Ancaq beyin qabığı tamamilə fərqli bir məsələdir. Məsələn, səhvin yayılması üçün lazım olan əks əlaqə yoxdur, lakin öyrənmənin əsl sehri korteksdə baş verir. Ceff Hawkins “On Intelligence” adlı kitabında beyin qabığının strukturunun yaxından təkrarlanmasına əsaslanan alqoritmlərin hazırlanmasını müdafiə edir, lakin bu alqoritmlərin heç biri hələ indiki dərin şəbəkələrlə rəqabət apara bilmir.

Beyni daha yaxşı başa düşdükcə bu dəyişə bilər. İnsan Genomu Layihəsindən ilhamlanaraq, yeni intizam- konnektomika - bütün beyin sinapslarının xəritəsini yaratmağa çalışır. Avropa İttifaqı tamhüquqlu modelin qurulmasına milyardlarla avro sərmayə qoyub və oxşar məqsədləri olan Amerikanın BRAIN proqramı təkcə 2014-cü ildə 100 milyon dollar maliyyə vəsaiti əldə edib. Buna baxmayaraq, Simvolistlər Usta Alqoritmə aparan bu yola çox şübhə ilə yanaşırlar. Bütün beyni ayrı-ayrı sinapslar səviyyəsində təsəvvür etsək belə, bu şəkli naqil diaqramlarına çevirmək üçün (ironik olaraq) daha yaxşı maşın öyrənmə alqoritmləri lazım olardı: bunu əl ilə etməkdən söhbət gedə bilməz. Daha da pisi, beynin tam xəritəsi olsa belə, biz hələ də onun necə işlədiyi ilə maraqlanırıq. Cəmi 302 neyrondan ibarət olan Caenorhabditis elegans qurdunun sinir sistemi 1986-cı ildə tam şəkildə çəkilib, lakin biz hələ də onun işini ancaq fraqmentar şəkildə başa düşürük. Kiçik detallar bataqlığında nəyisə başa düşmək və insana xas detalları və sadəcə təkamülün qəribəliklərini “alaqlamaq” üçün daha yüksək səviyyəli anlayışlara ehtiyac var. Biz lələkləri olan təyyarələri tərsinə düzəltmirik və təyyarələr qanad çalmır, lakin təyyarənin dizaynı bütün uçan obyektlər üçün eyni olan aerodinamika prinsiplərinə əsaslanır. Bizdə hələ də oxşar düşüncə prinsipləri yoxdur.

Ola bilsin ki, konnektomika ifrata varır: bəzi əlaqələndiricilər geri yayılmanın Master alqoritm olduğunu iddia edirlər: sadəcə böyütmək lazımdır. Lakin simvolistlər bu fikirləri lağa qoyur və insanların edə biləcəyi, neyron şəbəkələrinin edə bilmədiyi şeylərin uzun bir siyahısını təqdim edirlər. Məsələn, "sağlam düşüncəni" götürək, bu, bəlkə də əvvəllər heç vaxt yan-yana durmayan informasiya fraqmentlərini birləşdirməyi tələb edir. Maria naharda ayaqqabı yeyir? O, insan olduğuna görə yemir, insanlar ancaq yeməli şeylər yeyirlər, ayaqqabılar isə yeyilmir. Simvolik sistemlər bunun öhdəsindən problemsiz gəlir - onlar sadəcə olaraq müvafiq qaydaların zəncirlərini təşkil edirlər - lakin çoxqatlı qavrayışçılar bunu edə bilməzlər və öyrəndikdən sonra eyni sabit funksiyanı təkrar-təkrar hesablayacaqlar. Neyron şəbəkələri kompozisiya deyil və kompozisiya insan idrakının vacib elementidir. Digər böyük problem odur ki, həm insanlar, həm də qaydalar və qərar ağacları kimi simvolik modellər öz mülahizələrini izah edə bilirlər, neyron şəbəkələr isə heç kimin başa düşə bilməyəcəyi böyük ədədlər dağıdır.

Bəs insanda bütün bu qabiliyyətlər varsa və beyin onları sinapsları seçərək öyrənmirsə, onlar haradan gəlir? Siz sehrə inanmırsınız? O zaman cavab "təkamül" olur. Əlaqədarlığın qatı tənqidçisi sadəcə olaraq təkamülün körpənin doğulanda bildiyi hər şeyi necə öyrəndiyini anlamalıdır - və biz fitri bacarıqlara nə qədər çox aid etsək, iş bir o qədər çətinləşir. Bütün bunları başa düşə bilsəniz və kompüteri belə bir işi yerinə yetirmək üçün proqramlaşdıra bilsəniz, Master Alqoritmin ixtiraçısının uğurlarını - ən azı onun variantlarından birini inkar etmək çox tərbiyəsizlik olardı.

Neurit (sinir hüceyrəsinin uzun silindrik prosesi), onun vasitəsilə gedən siqnallar (sinir impulsları) hüceyrə orqanından innervasiya edilmiş orqanlara və digər sinir hüceyrələrinə ötürülür.

Uilyam Ceyms (1842-1910) amerikalı filosof və psixoloq, praqmatizm və funksionalizmin qurucularından və aparıcı nümayəndələrindən biri idi.

Frank Rosenblatt (1928-1969) psixologiya, neyrofiziologiya və süni intellekt sahəsində tanınmış amerikalı alimdir.

Cozef Alois Şumpeter (1883-1950) avstriyalı və amerikalı iqtisadçı, politoloq, sosioloq və iqtisadi fikir tarixçisi idi.

Ronald Williams Bostondakı Şimal-Şərqi Universitetində kompüter elmləri professoru və neyron şəbəkələrinin qabaqcıllarından biridir.

ABŞ hökuməti tərəfindən maliyyələşdirilən robot avtomobil yarışması. Bu yarışların məqsədi tam avtonom avtomobillər yaratmaqdır.

Amerikalı aktrisa, ən çox "Dostlar" serialında Reyçel Qrin rolu ilə tanınıb və buna görə Emmi və Qızıl Qlobus mükafatlarına layiq görülüb.