PROSA lukker for henvendelser kl. 14 fredag den 20/12 og mandag den 23/12.

Big data, Systemudvikling og systemer

AI: Hype, kendsgerninger og ønsketænkning

Selvom du ikke er ekspert i kunstig intelligens, kan du godt begynde at undersøge de praktiske anvendelser af AI. Det giver grundlag for en velinformeret debat om teknologien.

 

Hvor smart er nutidens AI?

Beretninger om selvkørende biler, computere, der vinder over stormestre i skak, og det kinesiske brætspil Go samt uovertruffen mønstergenkendelse via machine learning, som gør computere bedre end mennesker til at diagnosticere visse kræftformer og identificere personer på billeder og videoer, giver indtryk af en overmenneskelig intelligens. Historierne understøtter fremtidsscenarier, som promoveres af Hollywood og Singularity-fortalere, hvor AI endegyldigt erstatter mennesket som den øverste i Jordens intelligens-hierarki.
Men leder de seneste års succes for AI nødvendigvis frem til, at AI overtrumfer menneskelig intelligens?

Ingen sund fornuft

Ikke hvis man lytter til, hvad ledende AI-forskere og -praktikere siger.

Eksempelvis Yann Lecun, som er leder af Facebooks AI-forskning og var med til at skabe de convolutional neurale netværk, som er helt afgørende for god ansigtsgenkendelse, og for at selvkørende biler kan fungere. Han udtalte til The Verge i oktober:

”Vi er langt fra at have maskiner, der kan lære de mest basale ting om verden på samme måde som mennesker og dyr. Ja, på nogle områder optræder de overmenneskeligt, men når det kommer til generel intelligens, så er de ikke engang i nærheden af en rottes”.

Som Lecun påpeger, er den nuværende AI stadig en meget specialiseret kunstig intelligens. Den har haft de førnævnte succeser, men der er lang vej til en generel menneskelig intelligens eller AGI (artificial general intelligence).

Som en anden prominent AI-forsker, Rodney Brooks, der var leder af MIT's Artificial Intelligence Laboratory i 10 år og siden har været en af de ledende robotforskere, udtrykker det på sin blog:

”Forskning i AGI forsøger at skelne en tænkende entitet fra den nuværende AI-teknologi som machine learning. Idéen er, at vi bygger autonome agenter, der fungerer ligesom levende væsener i verden. Det har altid været min motivation for at arbejde med robotter og AI, men den nylige success for AI har intet med det at gøre … AGI forskning i dag klarer sig ikke så godt med hverken at være generel eller udvikle en uafhængig entitet. Forskningen er for det meste kørt fast i de samme problemer med at opnå ræsonnement og sund fornuft, som AI har haft problemer med i mindst 50 år.” 

Forfra med AI?

En af ophavsmændene til den nuværende AI-succes med neurale netværk er Geoffrey Hinton. Mens AI-forskningen i 1970'erne og starten af 1980'erne stort set havde opgivet neurale net som en vej til kunstig intelligens, fortsatte nogle få forskere, deriblandt Hinton, eksperimenterne. I 1986 fik Hinton et gennembrud, da han viste, at backpropagation gjorde det muligt at træne neurale net med flere lag end de to-tre, man hidtil havde eksperimenteret med. Deep learning var en realitet.

Det tog dog 26 år, førend udviklingen i rå computerkraft kunne drage nytte af deep learning. I 2012 publicerede Hinton sammen med to af sine studerende forskningspapiret ImageNet Classification with Deep Convolutional Neural Networks. Her dokumenterede Hinton og hans to studerende, hvordan deres Convolutional Neurale Netværk (CNN) havde vundet den årlige ImageNet Large-Scale Visual Recognition Challenge. Med en fejlrate på 15,4 procent i genkendelsen af 1,2 millioner billeder i ImageNet-datasættet var der langt ned til nummer to med 26,2 procents fejlrate. Siden har CNN domineret billedgenkendelseskonkurrencen. Fejlraten er nu under 2,5 procent sammenlignet med menneskers fejlrate på 5–10 procent. Trods succesen tvivler Hinton på, at rigtig generel AI alene kan opnås ved hjælp af deep learning som CNN.

– Jeg er meget mistænksom over for deep learning. Jeg tror, at vi skal smide det ud og starte forfra igen, sagde han i september sidste år.

Selvlærende systemer

Trods skepsis fra nogle af ophavsmændene bag den nuværende AI-succes fortsætter succesen for  AI-teknologien. Google Deepmind-teamet udviklede i løbet af efteråret 2017 en ny algoritme, AlphaZero, der på blot fire timer lærte sig selv at spille skak og efterfølgende slog verdensklasse-skakprogrammet Stockfish. AlphaZero blev blot udstyret med reglerne for skak og gik derefter i gang med at træne sig selv op til stormester-niveau. På samme måde kan algoritmen oplære sig selv til mesterklasseniveau i andre spil, når den fodres med spillereglerne.

På de følgende sider ser vi nærmere på AI.
Vi taler med folk fra Google, der ønsker at gøre AI tilgængelig for masserne, ligesom vi taler med danskeren, der vandt Googles AI Challenge forrige sommer.
Budskabet er, at folk allerede nu kan gå i gang med at lege og undersøge mulighederne med AI uden nødvendigvis at forstå de finere nuancer i convolutional neural network og backpropagation. Det giver et første skridt til at forstå AI og skaber grundlaget for en vidensbaseret AI-debat.

ML, deep learning, backpropagation og CNN

Machine learning (ML) er et felt inden for datalogi og anvendt statistik, hvor man bygger algoritmer, der anvender (masser af) data til at blive gode til mønstergenkendelse, som eksempelvis anvendes i  ansigtsgenkendelse. Deep learning refererer til machine learning-metoder, hvor data behandles i flere forskellige faser eller lag. Deep learning anvender ofte neurale netværk med mange lag, såkaldt deep neurale netværk. Backpropagation er en metode til at korrigere eller træne et neuralt netværk, hvor et eventuelt fejlbehæftet output fra det neurale netværk føres tilbage til det neurale netværks input, så det neurale netværk kan korrigere sit output – med andre ord; lære af sine fejl. Convulational Neural Netværk (CNN) er en populær deep learning-arkitektur, der især anvendes til sprog, billeder, tale og lyde. CNN tager hensyn til rækkefølgen af datapunkter, hvor eksempelvis rækkefølgen af ord får betydning for forståelsen af en sætning.

Perceptron – Neurale nets forfader

Det første neurale net var Perceptron-algoritmen, som blev udviklet i 1957 af Frank Rosenblatt.

Den blev implementeret i hardware i form af Mark 1 Perceptron-maskinen, som med 400 fotoceller skulle anvendes til billedgenkendelse. 

Efter en pressekonference i 1958 skrev The New York Times: ”Det er starten på en elektronisk computer, som forventes at være i stand til at gå, tale, se, skrive, reproducere sig selv og være bevidst om sin egen eksistens.”

For 60 år siden var der altså også store forventninger til, at kunstig intelligens ville komme til at ligne menneskelig intelligens. 

AI-vittighed

En optimist, en realist og en pessimist taler om AI.
Optimisten, triumferende: AI har opnået menneskelignende intelligens!
Realisten, nølende : Nja, det er ikke helt rigtigt. AI er en samling skrøbelige hacks, som under meget specifikke omstændigheder efterligner noget, der på overfladen minder om intelligens.
Pessimisten, sukkende : Ja, AI har opnået menneskelignende intelligens ...