Cum să vorbești Mașină: Gândire computerizată pentru restul dintre noi
de John Maeda


Copertă de carte

Când mașinile devin la fel de inteligente ca oamenii care le proiectează, unde încadrează responsabilitatea atunci când aceste mașini fac o greșeală? Începem deja să vedem exemple în acest sens în întreaga societate, de la tehnologia suspectă de recunoaștere facială la software-ul de condamnare suspectă. În Cum să vorbești mașină, tehnologul și designerul John Maeda examinează stabilește un cadru conceptual pentru proiectarea și interacțiunea responsabilă cu sistemele automate de astăzi, precum și cu inteligențele conceptuale artificiale de mâine.

Când co-fondatorul Google vorbește despre teama lui cu privire la ceea ce poate aduce AI, nu este doar un caz de actualizare a valorii cote a Google, ci se datorează faptului că cei care au fost conectați (literal) la ridicarea Legii lui Moore și a acesteia impact știu ceva ce populația generală nu știe. Când savantul Harvard, Jill Lepore, se referă la transformarea politicii în Statele Unite și spune:

„Politica identitară este cercetarea de piață, care a condus politica americană încă din anii 1930. Ceea ce au făcut platforme precum Facebook este automatizarea ei. – Jill Lepore #MLTalks"

cuvântul cheie de evidențiat este „automat” – deoarece mașinile rulează bucle, mașinile devin mari, mașinile trăiesc. Nu tu întorci o manivelă de mână pentru a face un robot de plastic să se miște. Acum știți că totul se întâmplă în moduri care transcend cu mult universul nostru fizic. Când un tânăr aflat la cameră spune că Cambridge Analytica și Facebook au reușit să afecteze alegerile din SUA, îl privim și credem că nu ar putea face asta. Și nu poate exista mulți oameni din lume care să poată prelucra milioane de informații. Dar sunteți conștient de calcul acum și înțelegeți că prezentul este semnificativ (2X) diferit față de chiar trecutul recent (cu puțin peste un an în urmă).

Automatizarea în termenii Legii lui Moore este ceva foarte diferit decât o simplă mașină care ne spală hainele sau un vid care scoate podelele noastre ridicând murdăria. Rețeaua de prelucrare la scară moresiană se întinde pe fiecare aspect al vieții noastre care poartă suma totală a istoriilor noastre de date trecute. Acest gând trece repede de la mirare la îngrijire atunci când luăm în considerare modul în care toate aceste date sunt încărcate cu prejudecăți, în unele cazuri, care se întind pe secole. Ce se întâmplă ca urmare? Obținem algoritmi de predicție a criminalității care ne spun unde se va întâmpla crima – care va trimite ofițeri în cartierele unde istoricul a fost istoric, adică cartiere sărace. Și obținem algoritmi de condamnare a infracțiunii, cum ar fi COMPAS, care sunt mai susceptibili de a-i condamna pe inculpații negri, deoarece se bazează pe date anterioare de sentință și părtinire. Așadar, este în contradicție cu răspunsul popular al comediantului DL Hughley, când a fost întrebat ce părere are despre AI și dacă este necesar să fie rezolvat, răspunsul său că „Nu puteți învăța rasismul mașinilor” este, din păcate, incorect, deoarece AI a aflat deja despre rasism – de la noi.

Să reamintim din nou modul în care noua formă de inteligență artificială diferă de modul în care a fost proiectată în trecut. Înapoi, am defini diferite tipare IF-THEN și formule matematice, cum ar fi într-o foaie de calcul Microsoft Excel, pentru a descrie relația dintre intrări și unele rezultate. Când infernul a fost greșit, ne-am uita la logica IF-THEN pe care am codificat-o pentru a vedea dacă ne lipsește ceva și / sau ne-am uita la formulele matematice pentru a vedea dacă este nevoie de o ajustare suplimentară. Dar în noua lume a inteligenței mașinii, turnați date în rețelele neuronale, iar apoi se creează o cutie magică care, atunci când îi oferiți unele intrări, apar ieșiri magice. Ați făcut o mașină inteligentă fără să scrieți în mod explicit niciun program. Și când aveți tone de date disponibile, puteți face un salt cuantic în ceea ce privește ceea ce poate face inteligența mașinii cu algoritmi mai noi de învățare profundă, iar rezultatele devin semnificativ mai bune odată cu disponibilitatea mai multor date Învățarea automată se alimentează din trecut, deci dacă nu are nu s-a întâmplat înainte, nu se poate întâmpla în viitor – motiv pentru care dacă continuăm să perpetuăm același comportament, AI va în cele din urmă amplifica tendințele și părtinirile existente. Cu alte cuvinte, dacă stăpânii sunt răi, atunci AI va fi rău. Dar, atunci când sistemele rulează în mare parte „pilot auto” ca acesta, oare rezultatul mass-media va conduce la o „oops” obținută subtil ca o „eroare AI” versus o „eroare umană”? Nu trebuie să uităm niciodată că totul este o eroare umană, iar atunci când oamenii încep să corecteze aceste erori, mașinile sunt mai susceptibile să ne observe și să învețe de la noi. Dar este puțin probabil să facă aceste corecții de unul singur, decât dacă s-au dovedit a fi suficiente în cazurile în care s-a dovedit că acestea sunt importante.

Din cauza inteligenței mașinii, trăim acum într-o eră, la fel ca și când avem copii, în care copiii tăi copiază inevitabil ceea ce faci. De multe ori, acestea nu pot să nu crească pentru a deveni ca părinții lor – oricât de greu ar încerca. În plus, acest proces mai nou diferă de scrierea unui program de calculator care poate dura timp pe scara de luni și ani; Inteligența mașinii în schimb poate glom pe un set existent de date și tipare de comportament trecut și pur și simplu copiați și reproduceți. Automatizarea se poate produce instantaneu și fără întârziere. Este modul în care o formă mai nouă de calcul se comportă în sălbăticie și, din ce în ce mai mult, fără intervenția umană – ceea ce, atunci când este considerată automatizarea, are un sens care, deocamdată, știi că este o problemă mare. Așadar, mai degrabă decât să ne imaginăm că toate datele pe care le genărăm sunt tipărite pe bucăți de hârtie cu o cameră uriașă undeva pe Google unde sunt toate tipărite cu un personal de douăzeci care încearcă să facă referință încrucișată a tuturor informațiilor, gândiți-vă în loc de modul în care mașinile rulează bucle, cresc mari și trăiesc. Și un rezultat logic al acelei puteri de calcul, o armată de miliarde de automate în stil zombie va absorbi toate informațiile pe care le generăm, astfel încât să le înțeleagă și să ne copieze. Vom fi cei care vom da vina pentru ceea ce vor face, pentru noi.

Extras din CUM SE VORBEȘTE MASINA: Gândirea computatională pentru restul de noi, de John Maeda, cu permisiunea Portfolio, o amprentă a Penguin Publishing Group, o divizie a Penguin Random House LLC. Copyright © John Maeda, 2019.

Sursa articol

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here