​I filmen Ex Machina får en programmerare uppdraget att avgöra huruvida roboten Ava är kapabel till medvetande, känsloliv och kännande. Utan att avslöja för mycket visar det sig v​ara en svår nöt att knäcka. Foto: Wikimedia Commons (By Source (WP:NFCC#4), Fair use, https://en.wikipedia.org/w/index.php?curid=46469200). ​​

Kommer robotar ta över världen?

De absolut vanligaste frågorna jag får när jag träffar nya människor och berättar om mitt jobb är funderingar på temat artificiell intelligens och existentiell risk. Det vill säga, det folk många gånger undrar är huruvida ondskefulla datorstyrda sinnen någon gång kommer utgöra ett hot mot mänskligheten och hur förestående i tiden detta hot är.​
Jag är verkligen ingen expert på området, vilket kan tyckas märkligt eftersom jag faktiskt forskar på maskininlärning och smarta algoritmer för medicinska bilder. Jag brukar dock försöka mig på ett hyfsat balanserat svar, som dels har förankring bland en del stora tyckare inom ämnet men som framförallt speglar min egen uppfattning. 

Så vad svarar jag? Som jag ser det är datorer och smarta algoritmer på spädbarnsnivå, möjligtvis förskolematerial. Smarta algoritmer kan skilja på hund, katt och fågel och linjera ut bilar med hyfsad precision  men vilken 3-åring kan inte det? Steget till att kunna analysera komplicerade flöden av information, kunna relatera orsak och verkan samt ta beslut baserade på egna intressen är oändligt stort.

Några superkändisar i fältet håller med mig på den här punkten. Michelle Zhou, som bland annat jobbat som forskare på IBM Watson, menar att det finns tre utvecklingsstadier för fältet artificiell intelligens:

  1. Imitation och igenkänning: att kunna lära sig att känna igen mönster. 
  2. Kognitiv intelligens: kreativitet och förmågan att ta beslut baserade på tillgänglig information .
  3. Virtuella människor: som kan känna och bete sig precis som oss.
Vissa ledande företag och forskargrupper börjar nosa på området kognitiv intelligens, men hittills kan de flesta AI-forskare nog enas om att vi hittills fortfarande rör oss inom första stadiet. 

Andrew Ng, forskare och professor på Stanford och känd för många från sina fantastiska Courserakurs inom machine learning, är inne på samma spår och säger bland annat:

"There’s also a lot of hype, that AI will create evil robots with super-intelligence. That’s an unnecessary distraction. (...) There could be a race of killer robots in the far future, but I don’t work on not turning AI evil today for the same reason I don't worry about the problem of overpopulation on the planet Mars. If we colonize Mars, there could be too many people there, which would be a serious pressing issue. But there's no point working on it right now, and that's why I can’t productively work on not turning AI evil."

Andrew menar vidare att det är en stor skillnad mellan intelligens och “förnimbarhet” (att subjektivt kunna uppfatta, känna och vara medveten), och att vi i nuläget är långt från att kunna konstruera kännande mjukvara. Precis som Andrew tycker jag det finns en poäng i att inte spendera tid på att oroa sig för tekniska framsteg som fortfarande är rena spekulationer. Å andra sidan kan jag köpa argument som att vi exempelvis borde ha bekymrat oss mer för atombomben långt innan möjligheterna fanns att konstruera den. Dock tror jag att teknisk utveckling är en varelse med eget liv  vi kan varken stoppa eller styra den med politik eller etik (möjligtvis finansiering!). Ett exempel på detta är PirateBay vilken liksom katten tycks ha (minst!) nio liv.

Men det finns förstås duktiga och karismatiska tyckare som är av motsatt åsikt. Elon Musk, bland annat grundare till Tesla Motors och mångsysslande AI-entreprenör, menar att artificiell intelligens kan vara det största hotet mot mänsklighetens existens och Stephen Hawking, bäst i världen på populärvetenskap (?), uttalar sig ofta och gärna i ämnet:

“The development of full artificial intelligence could spell the end of the human race. (...) 
It would take off on its own, and re-design itself at an ever increasing rate. (...) 
Humans, who are limited by slow biological evolution, couldn't compete, and would be superseded."

Både Musk och Hawking har skrivit ett flertal debattartiklar i ämnet och sitter i styrelsen för ett forskningsinstitut i Boston som forskar på riskerna med avancerad artificiell intelligens. Grundarna till institutet har faktiskt skandinaviskt klingande namn: Nick Boström (svensk filosof), Max Tegemark (svensk-amerikansk kosmolog) och Jaan Taallinn (estländare som var med och grundade Skype och Kazaa). Samtliga har positionerat sig som bekymrade för risken som superintelligenta program kan utgöra för mänskligheten.  

Det finns nog lika många åsiktet inom ämnet som det finns experter. Personligen anser jag att det är något fånigt att bekymra sig för ett hot som ligger så pass långt i framtiden  och tycker kanske det är viktigare att fokusera på mer akuta hot som exempelvis global uppvärmning och den amerikanska hjärnsläppen i form av Donald Trump. Dessutom så hoppas och tror jag att fördelarna med artificiell intelligens kommer att överväga nackdelarna långt framöver. Jag vill helt enkelt inte tro att min forskning kring smarta algoritmer för medicintillämpningar skulle bidra till en dystopisk värld styrd av ondskefulla robotar utan snarare bidra till en ökad folkhälsa och mindre lidande. AI-entreprenören Rollo Carpenter sammanfattar det alldeles utmärkt:

"We cannot quite know what will happen if a machine exceeds our own intelligence, 
so we can't know if we'll be infinitely helped by it, 
or ignored by it and sidelined, 
or conceivably destroyed by it."

Text: Jennifer Alvén, doktorand på Signaler och system.

Publicerad: ti 01 nov 2016.