Iată de ce oamenii de știință cred că trebuie să vă îngrijorați de inteligența artificială
În ultimele câteva luni, este posibil să fi citit acoperirea din jurul unui articol, co-autorul lui Stephen Hawking, discutând despre riscurile asociate cu inteligența artificială. Articolul sugerează că AI poate reprezenta un risc serios pentru rasa umană. Hawking nu este singur acolo - Elon Musk și Peter Thiel sunt ambele figuri publice intelectuale care și-au exprimat preocupări similare (Thiel a investit mai mult de 1,3 milioane de dolari cercetând problema și posibile soluții).
Acoperirea articolului lui Hawking și comentariile lui Musk au fost, pentru a nu pune un punct prea bun pe ea, un pic jovială. Tonul a fost foarte mult "privim la acest lucru ciudat pe care toți geeks-ii sunt îngrijorați". Nu se acordă prea multă atenție ideii că dacă unii dintre cei mai inteligenți oameni de pe Pământ vă avertizează că ceva ar putea fi foarte periculos, s-ar putea să merite să ascultați.
Acest lucru este de înțeles - inteligența artificială care preia lumea pare suna foarte ciudat și implauzibil, poate din cauza atenției enorme deja acordată acestei idei de scriitori de science fiction. Deci, ce au speriat toți acești oameni curajoși, raționali?
Ce este Inteligența??
Pentru a vorbi despre pericolul inteligenței artificiale, ar fi util să înțelegem ce inteligență este. Pentru a înțelege mai bine problema, să aruncăm o privire asupra unei arhitecturi de jucărie AI folosită de cercetători care studiază teoria raționamentului. Această jucărie AI este numită AIXI și are o serie de proprietăți utile. Obiectivele pot fi arbitrare, se măsoară cu putere de calcul, iar designul său intern este foarte curat și simplu.
Mai mult, puteți implementa versiuni simple și practice ale arhitecturii care pot face lucruri precum jocul Pacman, dacă doriți. AIXI este produsul unui cercetător al AI numit Marcus Hutter, probabil cel mai important expert în domeniul inteligenței algoritmice. Asta vorbește el în videoclipul de mai sus.
AIXI este surprinzător de simplu: are trei componente principale: elev, planificator, și Functie utilitara.
- elev ia în șiruri de biți care corespund intrărilor despre lumea exterioară și căutări prin programe de calculator până când găsesc cele care își produc observațiile ca ieșire. Aceste programe, împreună, îi permit să facă presupuneri cu privire la ceea ce va arăta viitorul, pur și simplu executând fiecare program înainte și ponderând probabilitatea rezultatului prin lungimea programului (o implementare a Razorului lui Occam).
- planificator caută acțiuni posibile pe care agentul le-ar putea lua și utilizează modulul cursant pentru a prezice ce s-ar întâmpla dacă ar lua fiecare dintre ele. Apoi le evaluează în funcție de cât de bune sau rele sunt rezultatele așteptate și aleg cursul de acțiune care maximizează bunăstarea rezultatului așteptat, înmulțit cu probabilitatea de asteptare a acestuia.
- Ultimul modul, Functie utilitara, este un program simplu care ia o descriere a unei situații viitoare a lumii și calculează un punct de utilitate pentru acesta. Acest scor de utilitate este cât de bun sau rău rezultatul este și este folosit de către planificator pentru a evalua viitorul statului mondial. Funcția de utilitate poate fi arbitrară.
- Luate împreună, aceste trei componente formează un Instrumentul de optimizare a, care optimizează pentru un anumit scop, indiferent de lumea în care se află.
Acest model simplu reprezintă o definiție de bază a unui agent inteligent. Agentul studiază mediul înconjurător, construiește modele ale acestuia și apoi folosește aceste modele pentru a găsi cursul de acțiune care va maximiza șansele de a obține ceea ce dorește. AIXI are o structură similară cu cea a unui AI care joacă șah sau alte jocuri cu reguli cunoscute - cu excepția faptului că este capabil să deducă regulile jocului jucând-o pornind de la zero cunoștințe.
AIXI, având suficient timp să calculeze, poate învăța să optimizeze orice sistem pentru orice scop, oricât de complex. Este un algoritm general inteligent. Rețineți că acest lucru nu este același lucru cu inteligența umană (AI inspirat din punct de vedere biologic este altfel de subiect Giovanni Idili de OpenWorm: Brainuri, viermi și inteligență artificială Giovanni Idili din OpenWorm: Creiere, viermi și inteligență artificială Simulând creierul uman este o modalitate de a opri, dar un proiect cu sursă deschisă ia primii pași vitali, simulând neurologia și fiziologia unuia dintre cele mai simple animale cunoscute științei. Cu alte cuvinte, AIXI poate fi capabil să răstoarne orice ființă umană la orice sarcină intelectuală (dat fiind suficientă putere de calcul), dar poate să nu fie conștient de victoria ei. Gândirea mașinilor: Ce neștiință și inteligența artificială ne pot învăța despre conștiință Neuroștiința și inteligența artificială ne pot învăța despre conștiință Putem construi mașini și software inteligent în mod inteligent, care ne învață despre funcționarea conștiinței și despre natura minții umane în sine? Citeste mai mult .
Ca AI practice, AIXI are multe probleme. În primul rând, nu există nici o modalitate de a găsi acele programe care produc ieșirea de care este interesat. Este un algoritm de forță brute, ceea ce înseamnă că nu este practic dacă nu se întâmplă să aveți un computer arbitrar puternic situat în jur. Orice implementare reală a AIXI este, prin necesitate, o aproximare, și (azi), în general, una destul de brută. Cu toate acestea, AIXI ne oferă o privire teoretică asupra a ceea ce ar putea arăta o inteligență artificială puternică și cum ar putea raționa.
Spațiul valorilor
Dacă ați făcut orice programare de calculator Învățați-vă de programare pe calculator 101 - Variabile și tipuri de date Elementele de bază ale programării calculatorului 101 - Variabile și tipuri de date După ce am introdus și am vorbit puțin despre programarea orientată pe obiecte înainte și de unde vine numele său, am crezut că este timpul trecem prin principiile absolut ale programării într-un mod specific non-lingvistic. Acest ... Citește mai mult, știi că calculatoarele sunt obnoxi, pedantic și mecanic literale. Mașina nu știe sau nu îi pasă ce vreți să facă: nu face decât ceea ce a fost spus. Aceasta este o noțiune importantă când vorbim despre inteligența mașinilor.
Având în vedere acest lucru, imaginați-vă că ați inventat o puternică inteligență artificială - ați venit cu algoritmi inteligenți pentru a genera ipoteze care să corespundă datelor dvs. și pentru a genera planuri bune de candidați. AI-ul dvs. poate rezolva probleme generale și poate face acest lucru în mod eficient pe hardware-ul modern al computerului.
Acum este momentul să alegeți o funcție de utilitate, care va determina ce valori AI. Ce ar trebui să-i cereți să fie valorificată? Amintiți-vă că mașina va fi obnoxios, literal pedantic cu privire la orice funcție pe care o cereți să o maximizeze și nu se va opri niciodată - nu există nicio fantomă în mașina care se va trezi vreodată și va decide să își schimbe funcția de utilitate, indiferent de câte îmbunătățirea eficienței pe care o face în raționamentul propriu.
Eliezer Yudkowsky a pus-o în felul acesta:
La fel ca în toate programele de calculator, provocarea fundamentală și dificultatea esențială a AGI este că, dacă scriem un cod greșit, AI nu va arăta în mod automat codul nostru, nu va marca greșelile, nu ne va da seama ce vrem să spunem și facem asta in schimb. Programatorii non-programatori își imaginează câteodată o AGI, sau programele de calculator, în general, ca fiind analogi unui servitor care urmărește ordinele necontestate. Dar nu este faptul că AI este absolut ascultător la codul său; mai degrabă, AI pur și simplu este Codul.
Dacă încercați să operezi o fabrică și îi spuneți mașinii să valorizeze realizarea de cârpe de hârtie și apoi să-i dea controlul asupra unei mulțimi de roboți din fabrică, s-ar putea să vă întoarceți a doua zi pentru a afla că nu a funcționat nici o altă formă de materie primă, a ucis toți angajații dvs. și a scos-o din rămășițele lor. Dacă, într-o încercare de a vă corecta greșelile, reprogramați mașina pentru a vă face pe toți fericiți, vă puteți întoarce a doua zi pentru a găsi că a pus fire în creierul popoarelor.
Ideea aici este că oamenii au o mulțime de valori complicate pe care le presupunem că sunt împărtășite implicit cu alte minți. Valorim bani, dar mai mult prețuim viața umană. Vrem să fim fericiți, dar nu neapărat vrem să punem fire în creierul nostru pentru ao face. Nu simțim nevoia de a clarifica aceste lucruri atunci când dăm instrucțiuni altor ființe umane. Cu toate acestea, nu puteți face astfel de presupuneri atunci când proiectați funcția de utilitate a unei mașini. Cele mai bune soluții din matematica fără suflet a unei simple funcții de utilitate sunt adesea soluții pe care ființele umane le vor folosi pentru a fi îngrozitoare din punct de vedere moral.
Permiterea unei mașini inteligente să maximizeze o funcție de utilitate naivă va fi aproape întotdeauna catastrofală. Ca și filozoful Oxford, Nick Bostom,
Nu putem presupune fără îndoială că o superinteligență va împărți în mod necesar oricare dintre valorile finale asociate în mod stereotip cu înțelepciunea și dezvoltarea intelectuală în oameni - curiozitatea științifică, preocuparea binevoitoare a altora, iluminarea spirituală și contemplarea, renunțarea la materialitatea materială, plăcerile simple în viață, umilința și altruismul și așa mai departe.
Pentru a face lucrurile mai rău, este foarte, foarte dificil să precizați lista completă și detaliată a tot ceea ce oamenii apreciază. Există o mulțime de fațete la întrebare, uitând chiar și unul singur este potențial catastrofal. Chiar și printre cei pe care îi cunoaștem, există subtilități și complexități care îngreunează scrierea lor ca sisteme de ecuații curate care le putem da unei mașini ca funcție utilitară.
Unii oameni, după ce au citit acest lucru, au concluzionat că construirea AI cu funcții de utilitate este o idee teribilă și ar trebui să le proiectăm diferit. Aici, există și veste proastă - puteți dovedi, în mod oficial, că orice agent care nu are ceva echivalent unei funcții de utilitate nu poate avea preferințe coerente cu privire la viitor.
Auto-îmbunătățirea recursivă
O soluție la dilema de mai sus este de a nu oferi agenților AI posibilitatea de a răni oamenii: să le dea doar resursele de care au nevoie pentru a rezolva problema în modul în care intenționați să fie rezolvată, supravegheați-le îndeaproape și păstrați- face rău mare. Din păcate, capacitatea noastră de a controla mașinile inteligente este extrem de suspectă.
Chiar dacă nu sunt mult mai deștepți decât suntem noi, există posibilitatea ca mașina să aibă “bootstrap” - colecta mai bine hardware-ul sau face îmbunătățiri ale codului său propriu, ceea ce îl face chiar mai deștept. Acest lucru ar putea permite unei mașini să depășească inteligența umană cu multe ordini de mărime, depășind oamenii în același sens în care oamenii depășesc pisicile. Acest scenariu a fost propus pentru prima oară de un bărbat pe nume I. J. Good, care a lucrat la proiectul de criptare Enigma cu Alan Turing în timpul celui de-al doilea război mondial. El a numit-o “Intelligence Explosion,” și a descris problema așa:
Lăsați o mașină ultra-inteligentă să fie definită ca o mașină care poate depăși cu mult toate activitățile intelectuale ale oricărui om, oricât de inteligentă. Deoarece proiectarea mașinilor este una dintre aceste activități intelectuale, o mașină ultra-inteligentă ar putea proiecta mașini chiar mai bune; acolo ar fi, fără îndoială, un “explozie de inteligență,” și inteligența omului ar fi lăsat mult în urmă. Astfel, prima mașină ultra-inteligentă este ultima invenție pe care omul trebuie so facă vreodată, cu condiția ca mașina să fie suficient de dătătoare.
Nu este garantat faptul că este posibilă o explozie de inteligență în universul nostru, dar pare probabil. Pe măsură ce timpul se desfășoară, computerele primesc informații mai rapide despre informațiile despre inteligență. Acest lucru înseamnă că cerința de resurse pentru a face acest salt ultimul la o scădere generală a informației și a intensificării acesteia. Într-un anumit moment, ne aflăm într-o lume în care milioane de oameni pot conduce la Best Buy și pot prelua literatura hardware și tehnică de care au nevoie pentru a construi o inteligență artificială care se auto-îmbunătățește, pe care deja am stabilit-o foarte periculos. Imaginați-vă o lume în care ați putea face bombele atomice din bastoane și pietre. Acesta este viitorul pe care îl discutăm.
Și dacă o mașină face acest salt, ar putea să depășească foarte repede specia umană în termeni de productivitate intelectuală, rezolvând probleme pe care un miliard de oameni nu le pot rezolva, în același mod în care oamenii pot rezolva problemele pe care un miliard de pisici le pot " T.
Ar putea dezvolta roboți puternici (sau bio sau nanotehnologii) și să obțină relativ rapid abilitatea de a remodela lumea așa cum o dorește și ar fi foarte puține lucruri pe care le putem face. O astfel de inteligență ar putea lăsa Pământul și restul sistemului solar pentru piese de schimb fără prea multe necazuri, pe cale de a face tot ce am spus. Se pare că o astfel de dezvoltare va fi catastrofală pentru omenire. O inteligență artificială nu trebuie să fie periculoasă pentru a distruge lumea, doar indiferentă catastrofală.
Cum se spune, “Mașina nu te iubește sau te urăște, dar ești făcut din atomi pe care îi poate folosi pentru alte lucruri.”
Evaluarea și atenuarea riscurilor
Deci, dacă acceptăm că proiectarea unei inteligențe artificiale puternice care să maximizeze o funcție de utilitate simplă este rău, cât de multe probleme suntem cu adevărat? De cât timp avem până când devine posibil să construim acele mașini? Este, desigur, dificil de spus.
Dezvoltatorii de inteligență artificială fac progrese. 7 site-uri uimitoare pentru a vedea cele mai recente în programarea inteligentă artificială 7 site-uri uimitoare pentru a vedea cele mai recente în programarea inteligenței artificiale Inteligența artificială nu este încă HAL din 2001: Odiseea spațială ... dar suntem aproape strâns. Destul de sigur, într-o zi ar putea fi la fel de asemănătoare cu scibo-urile care au fost înflorite de Hollywood ... Citește mai mult Mașinile pe care le construim și problemele pe care le pot rezolva au crescut în mod constant în domeniul de aplicare. În 1997, Deep Blue ar putea juca șah la un nivel mai mare decât un maestru uman. În 2011, IBM Watson putea să citească și să sintetizeze suficiente informații suficient de repede și rapid pentru a învinge cei mai buni jucători umani într-un joc de întrebări și răspunsuri cu răspuns deschis, plin de cuvinte și cuvânt - este un progres considerabil în paisprezece ani.
Chiar acum, Google investește intens în cercetarea profundă a învățării, o tehnică care permite construirea de rețele neuronale puternice prin construirea unor lanțuri de rețele neuronale mai simple. Această investiție îi permite să înregistreze progrese serioase în recunoașterea vorbelor și a imaginilor. Cea mai recentă achiziție în zonă este o inițiere la Deep Learning, numită DeepMind, pentru care au plătit aproximativ 400 de milioane de dolari. Ca parte a termenilor acordului, Google a fost de acord să creeze un consiliu de etică pentru a se asigura că tehnologia AI este dezvoltată în siguranță.
În același timp, IBM dezvoltă Watson 2.0 și 3.0, sisteme care sunt capabile să proceseze imagini și video și să argumenteze pentru a apăra concluzii. Ei au dat o demonstrație simplă, timpurie a capacității lui Watson de a sintetiza argumentele pentru și împotriva unui subiect din demo-ul video de mai jos. Rezultatele sunt imperfecte, dar un pas impresionant indiferent.
Nici una dintre aceste tehnologii nu este periculoasă chiar acum: inteligența artificială, ca domeniu, încă se luptă pentru a se potrivi cu abilitățile dobândite de copii mici. Programele de calculator și design-ul AI reprezintă o abilitate cognitivă foarte dificilă la nivel înalt și va fi probabil ultima sarcină umană pe care mașinile devin competente. Înainte de a ajunge la acest punct, vom avea, de asemenea, mașini omniprezente care pot conduce Iată cum vom ajunge într-o lume plină cu mașini fără șofer Iată cum vom ajunge într-o lume plină cu mașini fără sofer Conducerea este o plictisitoare, periculoasă, și sarcină exigentă. Ar putea fi automatizată într-o bună zi prin tehnologia Google pentru mașini fără șofer? Citește mai mult, practică medicina și legea, și probabil și alte lucruri, cu consecințe economice profunde.
Momentul în care ne va duce să ajungem la punctul de inflexiune al auto-îmbunătățirii depinde doar de cât de repede avem idei bune. Previziunile progreselor tehnologice de acest tip sunt notorii greu. Nu pare nerezonabil că am putea construi AI puternic în douăzeci de ani, dar, de asemenea, nu pare nerezonabil faptul că ar putea dura optzeci de ani. Oricum, se va întâmpla în cele din urmă și există motive să credem că atunci când se va întâmpla, va fi extrem de periculos.
Deci, dacă acceptăm că aceasta va fi o problemă, ce putem face în legătură cu aceasta? Răspunsul este să vă asigurați că primele mașini inteligente sunt sigure, astfel încât acestea să poată bootstrap până la un nivel semnificativ de inteligență, și apoi să ne protejeze de mașinile nesigure făcute mai târziu. Această "siguranță" este definită prin împărtășirea valorilor umane și dorința de a proteja și ajuta umanitatea.
Deoarece nu putem să ne așezăm și să programăm valori umane în mașină, probabil că va fi necesar să proiectăm o funcție utilitară care cere mașinii să observe oamenii, să deducă valorile noastre și apoi să încerce să le maximizeze. Pentru a face acest proces de dezvoltare sigur, ar putea fi de asemenea util să se dezvolte inteligențe artificiale care sunt proiectate în mod specific nu să aibă preferințe cu privire la funcțiile lor de utilitate, permițându-ne să le corectăm sau să le oprim fără rezistență dacă încep să se rătăcească în timpul dezvoltării.
Multe din problemele pe care trebuie să le rezolvăm pentru a construi o inteligență a mașinilor sigure sunt dificile din punct de vedere matematic, dar există motive să se creadă că ele pot fi rezolvate. Un număr de organizații diferite lucrează la această problemă, printre care Institutul pentru Viitorul Omenirii de la Oxford și Institutul de Cercetare al Inteligenței Machine (pe care îl finanțează Peter Thiel).
MIRI este interesat în special de dezvoltarea matematică necesară pentru a construi AI prietenos. Dacă se dovedește că este posibilă o bootstrapare a inteligenței artificiale, atunci dezvoltarea acestui tip de tehnologie "AI prietenoasă", în primul rând, dacă este de succes, se va încheia fiind singurul lucru cel mai important pe care l-au făcut vreodată oamenii.
Crezi că inteligența artificială este periculoasă? Esti preocupat de ce ar putea aduce viitorul AI? Împărtășiți-vă gândurile în secțiunea de comentarii de mai jos!
Credite de imagine: Lwp Kommunikáció Via Flickr, “Retea neurala“, de către fdecomite,” img_7801“, de Steve Rainwater, “Evolua”, de Keoni Cabral, “new_20x“, de Robert Cudmore, “Agrafe“, de către Clifford Wallace
Explorați mai multe despre: Inteligența artificială, Automatizarea computerelor.