Et nødvendigt paradigmeskifte

Den gamle drøm om menneskelignende robotter er blevet stækket. Nutidens aspirationer handler om at bygge ultra-specialiserede maskiner til klart definerede opgaver.

Engang troede computeringeniører, at man inden for en overskuelig fremtid kunne udvikle en generalistisk, menneskelignende intelligens. For eksempel troede den amerikanske computeringeniør John McCarthy, ophavsmanden til begrebet "kunstig intelligens", i 1955, at et forskerhold på 10 mand kunne gøre "betydelige fremskridt" inden for menneskelignende former for kunstig intelligens på bare én sommer.

Det skete som bekendt ikke. Og nutidens forskere trækker på smilebåndet over den slags.

Siden er arbejdet med intelligente computere blevet mere og mere praktisk orienteret. Der er sket et paradigmeskifte, som blev beskrevet af teknologimagasinet Wired i 2011 i artiklen "Artificial intelligence is here: it’s nothing like we expected". Wired skrev:
"Målet (at udvikle menneskelignende kunstig intelligens, red.) viste sig at være så illusorisk, at nogle forskere mistede modet, og mange andre mistede finansiering. (…) Men efterhånden som den traditionelle drøm om kunstig intelligens frøs til is, blev en ny drøm født: maskiner bygget til at udføre specifikke opgaver på måder, som mennesker aldrig kunne gøre det. Til at starte med var det kun ganske få grønne skud, der kæmpede sig vej op gennem den frosne jord. Men nu står teknologien i fuld blomst".

Et minefelt af klichéer

Der er dog ganske stor uenighed om, hvornår man kan tale om "kunstig intelligens".

Særligt det lille ord "kunstig" kan få nogle forskere til at stejle som vilde heste. En af årsagerne er, at det skaber misvisende associationer til science fiction-universer og tidligere tiders kuldsejlede forestillinger om, at man kunne bygge menneskelignende intelligens inden for en overskuelig fremtid. For eksempel siger Bjarke Nielsen, der er sekretariatsleder i innovationsnetværket Robocluster:
– Begrebet "kunstig intelligens" er voldsomt slidt, og der er ingen fælles forståelse for det. Nogle bruger begrebet i flæng – andre smider tunge ting efter mig, hvis jeg bruger det.

Selve ordet "intelligens" er dog svært at komme udenom.
– Jeg bruger i stedet begrebet "intelligente systemer" om systemer, der er autonome, og som gør noget selv, siger Bjarke Nielsen.

Denne strid om ord vil Thomas Bolander, der forsker i kunstig intelligens på Danmarks Tekniske Universitet, ikke tage del i. Men han fortæller, at det er uhyre vanskeligt at definere fænomenet - også selv om han underviser i netop kunstig intelligens. Hans definition på begrebet lyder simpelthen:

– Hver gang man får en computer til at løse en opgave, der tidligere var forbeholdt mennesker, vil man i udgangspunktet sige, at dét er kunstig intelligens. Men grænsen for, hvad der er kunstig intelligens, og hvad der ikke er, forandrer sig over tid. For eksempel mente man i sin tid, at de første regnemaskiner var intelligente – det mener man ikke i dag.

Andre forskere mener, at kun lærende systemer, der kan danne egne erfaringer, bør kaldes intelligente. Selv John McCarthy, der altså opfandt begrebet kunstig intelligens, havde svært ved at få hold på det. Han beskrev det som "videnskaben og ingeniørkunsten at skabe intelligente maskiner". Og dermed er vi lige vidt. Dykker man ned i forvirringen, viser det sig, at psykologer og zoologer ikke engang opererer med en klar forståelse for intelligens i dyreriget og blandt mennesker.

Som insekter

Esben Østergaard er stifter af og teknisk direktør hos den danske robotproducent Universal Robots. Han skrev i sin tid ph.d. om kunstig intelligens. Efter flere års granskning af begrebet overtog han en mere praktisk forståelse, defineret af bevægelsen Embodied Artificial Intelligence.
– Jeg mener, at man skal forstå intelligens som "den rigtige hjerne og den rigtige krop til den rigtige opgave". En flue er for eksempel hamrende intelligent, fordi den har en mave, der kan spise lort, siger han.

Og netop sammenligningen med insekter er på sin plads, når man taler om maskiner, der skal agere i den fysiske verden. Det mener Henrik Gordon Petersen, der forsker i robotik ved Mærsk Mc-Kinney Møller Instituttet.
– Vi er nået dertil, hvor kunstig intelligens kan reagere på simpelt sensor-input på en autonom måde. Hvis man skal sammenligne med dyreriget, er vi omkring insektniveau.

Programmeringen af maskinernes reaktioner kaldes "sensorbaseret realtidsstyring". I praksis fungerer programmerne ved, at en computer bearbejder forskellige "sanseindtryk" i realtid – fra kameraer til radarer og så videre. Via avanceret software – til for eksempel billedgenkendelse - ved den, hvordan den skal reagere. Henrik Gordon Petersen forklarer:
– Inden for blandt andet vision og navigation er man nået rimelig langt. Man kan godt programmere en robotbil til at dreje til venstre, hvis den ser en fodgænger gå ud på vejen. Men der er mange andre områder, hvor der ikke er nogen god model for, hvordan robotterne skal bruge sensor-input, siger han.

Han peger på, at der er udfordringer både på den kognitive og den mekaniske side. Om de mekaniske udfordringer siger han:

– Vi mangler at få den samme følesans ind i robotterne, som mennesker har. De føleevner, robotterne har i dag, er et sted mellem lavteknologiske og ubrugelige.

Og om de kognitive udfordringer siger han:

– Vi har brug for at sætte robotterne i stand til at lære af deres erfaringer. Hvis en robot har undersøgt ét løsningsområde, skal vi få den til at overføre dét, den har lært, til et andet løsningsområde. På samme måde som hvis et menneske har lært at åbne én dør og dermed nemt kan åbne en anden dør. Det med at skifte konteksten ud er noget, mennesker er rigtigt gode til, og som robotter er rigtigt dårlige til.