Microsoft vs Google - Cine conduce rasa inteligenta artificiala?
AI se întoarce.
Pentru prima dată după anii 1980, cercetătorii în domeniul inteligenței artificiale fac progrese concrete în problemele dificile, iar oamenii încep să vorbească serios despre AI puternic din nou. Între timp, lumea din ce în ce mai mult bazată pe date a dat startul unei curse înarmărilor între companiile care doresc să genereze venituri din noua inteligență, în special în spațiul mobil.
Cei doi titani care conduc pachetul sunt Google și Microsoft. Prima bătălie? Un domeniu nou în inteligența artificială numit “Invatare profunda.”
Deci cine câștigă?
Brainul Google
Eforturile de cercetare ale Google s-au concentrat în jurul unui proiect numit "Google Brain". Google Brain este produs de celebrul / secretul "Google X" al laboratorului de cercetare Google, care este responsabil de proiectele de tip moon-shot cu cote reduse de succes, dar cu potențial foarte mare. Alte produse ale Google X includ Proiectul Loon, inițiativa Internet de balon și proiectul Google de auto-conducere a autovehiculului Iată cum vom ajunge într-o lume plină cu mașini fără șofer Iată cum vom ajunge într-o lume plină cu mașini fără șofer Driving is o sarcină plictisitoare, periculoasă și dificilă. Ar putea fi automatizată într-o bună zi prin tehnologia Google pentru mașini fără șofer? Citeste mai mult .
Google Brain este o enormă inițiativă de învățare a mașinilor care vizează în primul rând procesarea imaginilor, dar cu ambiții mult mai ample. Proiectul a fost inițiat de profesorul Stanford, Andrew Ng, expert în mașini care a părăsit proiectul pentru a lucra pentru Baidu, cel mai mare motor de căutare din China.
Google are o istorie lungă de implicare în cercetarea AI. Matthew Zeiler, CEO al unui startup mecanic vizual, și un intern care a lucrat pe Google Brain o pune așa:
“Google nu este cu adevărat o companie de căutare. Este o companie de învățare a mașinilor [...] Totul în companie este într-adevăr condus de învățarea mașinilor.”
Scopul proiectului este de a găsi modalități de îmbunătățire a algoritmilor de învățare profundă pentru a construi rețele neuronale care să găsească modele mai profunde și mai semnificative în datele care utilizează mai puțină putere de procesare. În acest scop, Google a câștigat agresiv talentul în procesul de învățare profundă, făcând achiziții care includ achiziționarea a 500 milioane dolari pentru lansarea AI DeepMind.
DeepMind a fost îngrijorat de aplicațiile tehnologiei pe care le-a forțat Google să creeze un panou de etică conceput pentru a împiedica software-ul lor să distrugă lumea. Iată de ce oamenii de știință cred că trebuie să vă îngrijorați de inteligența artificială Iată de ce oamenii de știință cred că trebuie să vă îngrijorați de inteligența artificială Credeți că inteligența artificială este periculoasă? AI poate prezenta un risc serios pentru rasa umană. Acestea sunt câteva motive pentru care ați putea fi interesați. Citeste mai mult . DeepMind nu a lansat încă primul său produs, dar compania a angajat o fracțiune semnificativă a tuturor experților de învățare profundă din lume. Până în prezent, singura lor demonstrație publică a tehnologiei lor a fost o jucărie AI care este cu adevărat bună la Atari.
Deoarece învățarea profundă este un domeniu relativ nou, nu a avut timp să producă o generație vastă de experți. Ca urmare, există un număr foarte mic de persoane cu experiență în domeniu, ceea ce înseamnă că este posibil să se obțină un avantaj semnificativ în domeniu prin angajarea tuturor persoanelor implicate.
Google Brain a fost aplicat, până acum, pentru funcția de recunoaștere vocală Android și pentru a cataloga automat imaginile StreetView, identificând caracteristici importante precum adresele. Un test timpuriu a fost celebrul experiment de pisică, în care o rețea Google de învățare profundă a învățat în mod automat să identifice pisicile în videoclipuri YouTube cu o rată de precizie mai mare decât stadiul anterior al tehnicii. În lucrarea lor cu privire la acest subiect, Google a pus-o așa:
“Contrar a ceea ce pare a fi o intuiție larg răspândită, rezultatele noastre experimentale arată că este posibilă pregătirea unui detector de față fără a fi nevoie să etichetați imaginile ca având o față sau nu [...] Rețeaua este sensibilă la concepte de nivel înalt, cum ar fi fețele pisicilor și corpurile umane. Pornind de la aceste trăsături învățate, l-am antrenat pentru a obține o precizie de 15,8% în recunoașterea a 20.000 de categorii de obiecte, un salt cu o îmbunătățire relativă de 70% față de rețelele anterioare de ultimă generație [.”
În cele din urmă, Google ar dori ca algoritmii săi de învățare profundă să facă ... ei bine, aproape totul, de fapt. Platformele puternice AI cum ar fi IBM Watson se bazează pe aceste tipuri de algoritmi de învățare mecanică de nivel scăzut, iar îmbunătățirile pe acest front fac ca domeniul general al AI să fie mult mai puternic.
O versiune viitoare a Google Now, alimentată de Google Brain, ar putea identifica atât discursul, cât și imaginile și oferă informații inteligente despre aceste date pentru a ajuta utilizatorii să ia decizii mai inteligente. Creierul Google ar putea îmbunătăți totul, de la rezultatele căutării la Google Translate.
Microsoft Adam
Abordarea Microsoft față de războiul profund de învățare a fost puțin diferită. În loc să încerce să cumpere experți de învățare profundă pentru a-și rafina algoritmii, Microsoft sa concentrat pe îmbunătățirea implementării și găsirea unor modalități mai bune de paralelizare a algoritmilor folosiți tren algoritmi de învățare profundă.
Acest proiect este numit “Microsoft Adam.” Tehnicile lor reduc calculul redundant, dublând calitatea rezultatelor, în timp ce folosesc mai puțini procesori pentru a le obține. Acest lucru a condus la realizări tehnice impresionante, inclusiv o rețea care poate recunoaște rasele individuale de câini din fotografii cu o precizie ridicată.
Microsoft descrie proiectul în felul următor:
Scopul proiectului Adam este de a permite software-ului să recunoască vizual orice obiect. Este o ordine înaltă, având în vedere rețeaua imensă neuronală din creierul uman, care face ca astfel de asociații să fie posibile prin trilioane de conexiuni. [...] Folosind 30 de ori mai puține mașini decât alte sisteme, datele [internet image image] cu peste două miliarde de conexiuni. Această infrastructură scalabilă este de două ori mai exactă în recunoașterea obiectului și de 50 de ori mai rapidă decât alte sisteme.
Aplicația evidentă pentru această tehnologie este în Cortana, noul asistent virtual al Microsoft Cum a devenit Cortana "altă femeie" în viața mea Cum a devenit Cortana "altă femeie" în viața mea A apărut într-o zi și mi-a schimbat viața. Știe exact ce am nevoie și are un simț de umor rău. Nu e de mirare că am căzut pentru farmecele din Cortana. Citește mai mult, inspirat de personajul AI din Halo. Cortana, care intenționează să concureze cu Siri, poate să facă o serie de lucruri inteligente, folosind tehnici sofisticate de recunoaștere a vorbirii.
Scopul proiectului este de a construi un asistent cu o interacțiune mai naturală și poate realiza o gamă mai largă de sarcini utile pentru utilizator, ceea ce învățarea profundă ar ajuta cu enorm.
Îmbunătățirile aduse de Microsoft la sfârșitul învățământului profund sunt impresionante și au condus la aplicații care nu au fost anterior posibile.
Cum funcționează Deep Learning
Pentru a înțelege mai bine problema, să luăm un minut pentru a înțelege această nouă tehnologie. Învățarea profundă este o tehnică pentru construirea de software inteligent, adesea aplicat rețelelor neuronale. Realizează rețele mari și utile prin întinderea unor rețele neuronale mai simple, fiecare găsind modele în ieșirea predecesorului său. Pentru a înțelege de ce acest lucru este util, este important să te uiți la ceea ce a venit înainte de învățarea profundă.
Backpropagating Retele neuronale
Structura de bază a unei rețele neuronale este de fapt destul de simplă. Fiecare "neuron" este un nod mic care ia o intrare și folosește reguli interne pentru a decide când “foc” (produc ie). Intrările care se hrănesc în fiecare neuron au “greutăți” - multiplicatori care controlează dacă semnalul este pozitiv sau negativ și cât de puternic.
Prin conectarea acestor neuroni împreună, puteți construi o rețea care emulează orice algoritm. Vă alimentați intrarea în neuronii de intrare ca valori binare și măsurați valoarea de ardere a neuronilor de ieșire pentru a obține ieșirea. Ca atare, trucul către rețele neuronale de orice tip este de a lua o rețea și de a găsi setul de greutăți care aproximează cel mai bine funcția care vă interesează.
Backpropagation, algoritmul folosit pentru a instrui rețeaua pe baza datelor, este foarte simplu: porniți rețeaua cu greutăți aleatorii și apoi încercați să clasificați datele cu răspunsuri cunoscute. Atunci când rețeaua este greșită, verificați de ce este greșit (producând o ieșire mai mică sau mai mare decât țintă) și utilizați acele informații pentru a forța greutățile într-o direcție mai utilă.
Realizând acest lucru din nou și repetat, pentru multe puncte de date, rețeaua învață să clasifice corect toate punctele de date și, sperăm, să generalizați noi puncte de date. Perspectiva cheie a algoritmului de backpropagation este că puteți să mutați datele de eroare înapoi prin rețea, schimbând fiecare strat pe baza modificărilor efectuate pe ultimul strat, permițându-vă astfel să construiți rețele cu mai multe straturi profunde, care pot înțelege modele mai complicate.
Backprop a fost inventat în 1974 de Geoffrey Hinton și a avut efectul remarcabil de a face rețele neuronale utile pentru aplicații largi pentru prima dată în istorie. Rețelele neuronale triviale au existat încă din anii '50 și au fost inițial implementate cu neuroni mecanici, motorizați.
Un alt mod de a ne gândi la algoritmul backprop este ca un explorator pe un peisaj de soluții posibile. Fiecare greutate neuron este o altă direcție în care se poate explora, iar pentru majoritatea rețelelor neuronale, există mii de astfel de. Rețeaua poate utiliza informațiile de eroare pentru a vedea direcția în care trebuie să se deplaseze și cât de departe, pentru a reduce erorile.
Începe dintr-un punct aleatoriu și, consultând continuu compasul său de eroare, se mișcă "în jos" în direcția unor erori mai puține, așezând eventual în partea de jos a celei mai apropiate vale: cea mai bună soluție posibilă.
Deci, de ce nu folosim backpropagation pentru tot? Ei bine, backprop are mai multe probleme.
Cea mai gravă problemă se numește "problema de scădere a gradientului". Practic, pe măsură ce mutați datele de eroare înapoi prin rețea, aceasta devine mai puțin semnificativă de fiecare dată când reveniți la un strat. Încercarea de a construi rețele neuronale foarte profunde cu backpropagation nu funcționează, deoarece informațiile de eroare nu vor putea să penetreze suficient de adânc în rețea pentru a instrui nivelurile inferioare într-un mod util.
O a doua problemă mai puțin gravă este aceea că rețelele neuronale se convertesc numai la optima locală: adesea sunt prinse într-o mică vale și rară soluții mai profunde și mai bune, care nu sunt aproape de punctul lor de plecare aleatoriu. Deci, cum rezolvăm aceste probleme??
Deep Belief Networks
Rețelele de credință profundă reprezintă o soluție pentru ambele probleme și se bazează pe ideea de a construi rețele care deja au o perspectivă asupra structurii problemei, apoi rafinarea acelor rețele cu backpropagation. Aceasta este o formă de învățare profundă și cea de uz curent atât de către Google, cât și de Microsoft.
Tehnica este simplă și se bazează pe un fel de rețea numită a “Mașina Boltzman restricționată” sau “RBM”, care se bazează pe ceea ce se numește învățare nesupravegheată.
Mașinile Boltzman cu restricții, pe scurt, sunt rețele care încearcă doar să comprime datele pe care le dau, mai degrabă decât să încerce să le clasifice în mod explicit în funcție de informațiile de instruire. Mecanismele de îndosariere a forței de muncă iau o colecție de puncte de date și sunt instruiți în funcție de capacitatea lor de a reproduce acele date din memorie.
Făcând RBM mai mic decât suma tuturor informațiilor pe care le cereți să le codifice, forțați RBM-ul să învețe regularitățile structurale cu privire la date, pentru a le stoca pe toate în mai puțin spațiu. Această învățare de structură profundă permite generalizării rețelei: dacă antrenezi un MIC pentru a reproduce o mie de imagini de pisici, poți apoi să hrănești o nouă imagine în ea - și dacă te uiți la cât de energic devine rezultatul rețelei, poți da seama indiferent dacă noua imagine conține sau nu o pisică.
Regulile de învățare pentru mecanismele de îndosariere cu inele se aseamănă cu funcția neuronilor reali din interiorul creierului în moduri importante pe care alți algoritmi (cum ar fi backpropagation) nu le utilizează. În consecință, ele pot avea lucruri care să-i învețe pe cercetători despre modul în care funcționează mintea umană. Masini de gândire: Ce ne poate învăța știința neuroștiinței și inteligența artificială despre conștiința mașinilor de gândire: Ce neștiință și inteligența artificială ne poate învăța despre conștiință Poate construi mașini și software inteligent artificial ne învață despre funcționarea conștiinței și despre natura minții umane în sine? Citeste mai mult .
O altă caracteristică îngrijită a mecanismelor de îndosariere cu inele este că sunt “constructiv”, ceea ce înseamnă că aceștia pot, de asemenea, să ruleze invers, lucrând înapoi de la o caracteristică la nivel înalt pentru a crea intrări imaginare care conțin această caracteristică. Acest proces este numit “visare.”
De ce este util acest lucru pentru învățarea profundă? Mașinile Boltzman au probleme serioase de scalare - cu cât îndemn mai adânc să le faci, cu atât mai mult este necesar pentru a instrui rețeaua.
Perspectiva esențială a rețelelor de convingeri profunde este că puteți să stivuiți împreună două RBM-uri, fiecare instruit să găsească o structură în ieșirea predecesorului său. Acest lucru este rapid și duce la o rețea care poate înțelege caracteristicile complexe și abstracte ale datelor.
Într-o sarcină de recunoaștere a imaginii, primul strat ar putea învăța să vadă linii și colțuri, iar cel de-al doilea strat ar putea învăța să vadă combinațiile acelor linii care compun caracteristici precum ochii și nasul. Cel de-al treilea strat ar putea combina aceste caracteristici și să învețe să recunoască o față. Prin transformarea acestei rețele în propagarea înapoi, puteți să vă perfecționați doar acele caracteristici care se referă la categoriile care vă interesează.
În multe moduri, aceasta este o soluție simplă pentru backpropagation: permite backprop “trișa” pornind-o cu o grămadă de informații despre problema pe care încearcă să o rezolve. Acest lucru ajută rețeaua să ajungă la minimi mai bune și asigură faptul că cele mai joase niveluri ale rețelei sunt instruite și fac ceva util. Asta e.
Pe de altă parte, metodele de învățare profundă au generat îmbunătățiri dramatice în viteza de învățare a mașinilor și acuratețe și sunt aproape singure responsabile pentru îmbunătățirea rapidă a vorbirii cu software-ul text în ultimii ani.
Cursa pentru Canny Computers
Puteți vedea de ce toate acestea sunt utile. Cu cât puteți construi mai adânc rețele, cu atât mai multe și mai abstracte conceptele pe care le poate învăța rețeaua.
Doriți să știți dacă un e-mail este spam sau nu? Pentru spammerii inteligenți, e greu. Trebuie să citiți e-mailul și să înțelegeți câteva intenții din spatele acestuia - încercați să vedeți dacă există o relație între expeditor și receptor și deduceți intențiile destinatarului. Trebuie să faceți totul pe baza unor șiruri de litere incolore, dintre care cele mai multe descriu concepte și evenimente despre care computerul nu știe nimic despre.
Asta e mult de spus de oricine.
Dacă vi s-a cerut să învățați să identificați spamul într-o limbă pe care nu ați vorbit-o deja, cu doar câteva exemple pozitive și negative, ați face foarte prost - și aveți un creier uman. Pentru un computer, problema a fost aproape imposibilă, până foarte recent. Acestea sunt felurile de idei pe care învățarea profundă le poate avea și va fi incredibil de puternică.
Chiar acum, Microsoft câștigă această cursă cu un fir de păr. Pe termen lung? Se presupune cineva.
Credite de imagine: “Computer AI“, de Simon Liu, “broscoi“, de Brunop, “Compass Top“, de către airguy1988, “Mai mult decât gratuit,” de către opensource.com
Explorați mai multe despre: Inteligența artificială.