Redaktion og opdatering af indholdet på denstoredanske.dk er indstillet pr. 24. august 2017. Artikler og andet indhold er tilgængeligt i den form, der var gældende ved redaktionens afslutning.

  • Artiklens indhold er godkendt af redaktionen

kunstig intelligens

Oprindelig forfatter CEmm Seneste forfatter HaAn

Kunstig intelligens. Ekspertsystemer. Når en ekspert løser problemer, indgår der ofte en sekvens af handlinger baseret på logisk behandling af information i en bestemt rækkefølge. Medicinske ekspertsystemer (EP) er et eksempel på anvendt kunstig intelligens, som forsøger at formalisere de følgeslutninger, læger foretager, når de stiller diagnoser. Her er udfordringen for EP-ingeniøren at kortlægge de procedurer og slutninger, den medicinske ekspert foretager for at stille en given diagnose. Som led i kortlægningen kan anvendes et rutediagram som vist på figuren. Det illustrerer den information, der skal opnås, og dermed de undersøgelser, der må foretages for at stille en korrekt diagnose og evt. udføre en behandling, hvis en patient har forstørret skjoldbruskkirtel. Indledningsvis foretages en scintigrafi for at undersøge, om der er knuder i kirtlen. Det foregår ved, at kirtlen afbildes efter indsprøjtning af et radioaktivt sporstof, som vil samle sig på forskellig måde alt efter, om der er knuder eller ej, og efter, om eventuelle knuder er varme (stor koncentration af sporstof) eller kolde (ingen koncentration). Fund af en kold knude kræver udelukkelse af kræftsygdom, hvorfor scintigrafien må suppleres med ultralydundersøgelse. Herved kan knuden vise sig at være et uskyldigt væskefyldt hulrum (cyste) eller et fast vævsparti; i dette tilfælde udtages vævsprøve (biopsi), der bringer endelig diagnostisk klarhed. I visse af de tilfælde, hvor kræft kan udelukkes som årsag til forstørrelse af kirtlen, kan det være nødvendigt at supplere undersøgelserne med blodprøver for at afklare, om kirtelforstørrelsen er ledsaget af forhøjet stofskifte; en medicinsk behandling heraf er som regel tilstrækkelig, men kan undertiden kræve en operation, der ikke behøver at være så omfattende som ved kræft i kirtlen. I det viste eksempel er det en forholdsvis overskuelig proces at stille en diagnose, men i mere komplicerede tilfælde er det nemt at begå fejl; tanken med et ekspertsystem er, at det skal tjene som et redskab, lægen kan bruge i beslutningsprocessen, ikke fungere som selvstændig kunstig ekspert.

Kunstig intelligens. Ekspertsystemer. Når en ekspert løser problemer, indgår der ofte en sekvens af handlinger baseret på logisk behandling af information i en bestemt rækkefølge. Medicinske ekspertsystemer (EP) er et eksempel på anvendt kunstig intelligens, som forsøger at formalisere de følgeslutninger, læger foretager, når de stiller diagnoser. Her er udfordringen for EP-ingeniøren at kortlægge de procedurer og slutninger, den medicinske ekspert foretager for at stille en given diagnose. Som led i kortlægningen kan anvendes et rutediagram som vist på figuren. Det illustrerer den information, der skal opnås, og dermed de undersøgelser, der må foretages for at stille en korrekt diagnose og evt. udføre en behandling, hvis en patient har forstørret skjoldbruskkirtel. Indledningsvis foretages en scintigrafi for at undersøge, om der er knuder i kirtlen. Det foregår ved, at kirtlen afbildes efter indsprøjtning af et radioaktivt sporstof, som vil samle sig på forskellig måde alt efter, om der er knuder eller ej, og efter, om eventuelle knuder er varme (stor koncentration af sporstof) eller kolde (ingen koncentration). Fund af en kold knude kræver udelukkelse af kræftsygdom, hvorfor scintigrafien må suppleres med ultralydundersøgelse. Herved kan knuden vise sig at være et uskyldigt væskefyldt hulrum (cyste) eller et fast vævsparti; i dette tilfælde udtages vævsprøve (biopsi), der bringer endelig diagnostisk klarhed. I visse af de tilfælde, hvor kræft kan udelukkes som årsag til forstørrelse af kirtlen, kan det være nødvendigt at supplere undersøgelserne med blodprøver for at afklare, om kirtelforstørrelsen er ledsaget af forhøjet stofskifte; en medicinsk behandling heraf er som regel tilstrækkelig, men kan undertiden kræve en operation, der ikke behøver at være så omfattende som ved kræft i kirtlen. I det viste eksempel er det en forholdsvis overskuelig proces at stille en diagnose, men i mere komplicerede tilfælde er det nemt at begå fejl; tanken med et ekspertsystem er, at det skal tjene som et redskab, lægen kan bruge i beslutningsprocessen, ikke fungere som selvstændig kunstig ekspert.

kunstig intelligens, KI, programmerede maskiner, som efterligner et eller flere aspekter af den menneskelige intelligens som evnen til abstrakt tænkning, analyse, problemløsning, mønstergenkendelse, sprogbeherskelse og -forståelse, fornuftig handling o.l. En skakcomputer er et eksempel herpå.

Kunstig intelligens er også betegnelsen på et tværfagligt forskningsfelt, Artificial Intelligence (AI), hvor man dels udforsker systemer, der kan udvise intelligent adfærd, dels konstruerer disse syntetisk i det omfang, det er muligt, ved udvikling af nye typer programmer og bearbejdning af viden.

Endelig undersøges grundene til, at man måske aldrig kan realisere målet med denne forskning i sin mest ambitiøse form: at efterligne den fulde menneskelige intelligens uden begrænsninger.

Annonce

Forskningsområdet har rødder i datalogi, kybernetik og symbolsk logik og er desuden forbundet med kognitionspsykologi, kognitionsforskning, robotik og kunstigt liv.

Historie

Den kunstige intelligens' historie er sammenvævet med computerens. Udviklingen af de programmerbare digitale computere efter 2. Verdenskrig betød, at man i princippet havde mulighed for at afprøve en gammel rationalistisk hypotese om den menneskelige tænknings natur, som går tilbage til filosoffer som Thomas Hobbes og G.W. Leibniz.

Deres idé var simpel og radikal; de mente, at al tænkning skyldes virkningen af en indre kalkule (et program), dvs. et system af rent mekanisk natur, som processerer en række simple regneenheder eller symboler efter bestemte regler svarende til logikkens regler for korrekt logisk slutning eller aritmetikkens regler for korrekt talbehandling.

Dette forblev længe blot en hypotese. Selv da Charles Babbage i 1820'erne designede sin differensmaskine, en forløber for den moderne computer, var den så indviklet en konstruktion, at den ikke kunne realiseres med den tids teknologi. Men Ada Augusta Lovelace, som arbejdede sammen med Charles Babbage, bemærkede allerede i 1842, at en sådan maskine ikke blot ville kunne behandle tal, men stort set alt, der kunne reduceres til en begrænset mængde symboler. Man kunne altså forestille sig en maskine, der automatisk efter bestemte procedurer udfører instruktioner, som svarer til beregninger, og at disse beregninger ikke blot repræsenterer matematiske problemer, men i det hele taget problemer, der kan underkastes rationel analyse og løses ved logiske slutninger (se inferens).

I første halvdel af 1900-t. udvikledes grundlaget for kunstig intelligens og informationsteknologi generelt i form af særlige sammenkoblinger mellem teorier om tænkning, logik, automatik, formelle sprog og matematik. Man nåede frem til en afklaring af, hvad det præcis vil sige, at et problem er beregneligt efter en mekanisk procedure, bl.a. gennem Alan M. Turings model fra 1936 af en abstrakt maskine, Turingmaskinen, der kunne udføre enhver udførbar beregning. Alfred Tarski viste, hvordan man kunne konstruere en matematisk semantik for formelle sprog. Kurt Gödel påviste sammenhængen mellem bevis, sandhed og logisk følge. Claude Shannon viste i 1938, at elektriske kredsløb kan implementere alle operationer i boolesk logik, og efter 1945 udvikledes von Neumanncomputeren, den moderne serielle computer.

Alt dette var forudsætninger for den bro, man forestillede sig, AI skulle bygge mellem det tankemæssige, man ellers havde opfattet som noget rent immaterielt, og det maskinelle, som ofte ansås for noget rent fysisk og åndløst. Ligesom konstruktionen af regnemaskiner lignede et eksistensbevis på, at en bestemt sektion af den menneskelige tænkning, nemlig talbehandling, kunne mekaniseres, så kunne man forestille sig, at intelligent tænkning dybest set havde form af en indre og ubevidst kalkule eller et "tankesprog", som kunne opdages, og som indeholdt en nøje defineret grammatik af rent syntaktiske regler, herunder de logiske regler for gyldige ræsonnementer. Tænkte mennesket på basis af et sådant logisk-matematisk opbygget tankesprog, og lod dette sig finde, kunne man implementere det i en maskine, så dens processer kunne behandle de repræsenterede tanker vha. dette sprogs syntaktiske regler.

Som et egentligt forskningsfelt, hvor man begyndte at præcisere denne formodning i forsøget på at konstruere intelligente systemer, begyndte AI først omkring 1955. Tre faktorer er helt essentielle for idéen om tænkning som en art indre formelt sprog:

1) De enkelte tankeelementer antages at være ordnet i en kombinatorisk syntaktisk struktur (en grammatik), dvs. den består af veldefinerede arrangementer; elementerne svarer til ord, arrangementerne til sætninger, men det antages ikke, at de ligner kendte ord eller sætninger.

2) Indholdet af tanke-elementerne, det, de betyder, er systematisk bestemt ved deres sammensætning. Betydningen er kompositionel, på samme måde som betydningen af en sætning i store træk kan ses som fastlagt af dens grammatik og betydningen af de enkelte ord.

3) Endelig er tankerækkerne, den intelligente proces, specificeret alene af syntaktisk fastlagte regler; dvs. de kan udføres af mekanismer, der kun styres af formel syntaks. Semantikken, dvs. indholdet eller meningen, antages at følge med af sig selv. Her ligger analogien med bevisteori: Et arguments formelle gyldighed afgøres alene af, om det følger formelt gyldige slutningsregler. Hvis dette er opfyldt, vil sandheden af de oprindelige præmisser bevares i nye, afledte sætninger.

I sidste halvdel af 1950'erne udviklede man på basis af disse idéer de første programmer, der kunne spille skak eller bevise matematiske teoremer, dvs. maskiner, der løste problemer ikke blot ved beregning, men ved logisk deduktion. Blandt de forskere, der fra begyndelsen tegnede AI, var trioen Allen Newell (1927-92), J. Cliff Shaw (1922-91) og Herbert A. Simon (1916-2001), som på den første AI-konference i 1956 præsenterede et logikprogram, der skulle løse problemer ved at lede i et søgerum af mulige løsninger, hjulpet af visse tommelfingerregler, samt John McCarty (1927-2011) og Marwin Minsky (1927-2016), der sammen grundlagde AI-Laboratoriet ved MIT, USA, i 1958.

Det blev fra begyndelsen debatteret, hvorvidt det, de tidlige AI-programmer kunne udføre, virkelig var "intelligent". Alan M. Turing havde allerede i 1950 foreslået Turingtesten som operationelt kriterium på intelligens: Maskinen er intelligent, hvis en person, som må udspørge maskinen og et andet menneske om hvad som helst, ikke på svarenes indhold (dvs. spørgerens læsning af de skriftlige svar) kan skelne mellem maskinens svar og menneskets svar. Den skriftlige form skal sikre, at det ikke er minespil eller stemmeføring, der afgør sagen. Endnu har ingen AI-programmer bestået denne test.

Det kinesiske rum

John R. Searle er en af dem, der stærkest har argumenteret for, at intelligens og bevidsthed ikke er ækvivalent med udførelsen af en algoritme; selv ikke, hvis algoritmen, implementeret på en computer, kan bestå Turingtesten (dvs. at computerens svar ikke kan skelnes fra et menneskes). Argumentet bygger på hans tankeeksperiment Det kinesiske rum. Udgangspunktet er eksistensen af en kunstig intelligens-algoritme på (fx) kinesisk. Den består af en opskrift på manipulation af kinesiske symboler ud fra en given startsekvens. Det kinesiske rum består af et lukket rum, hvori en person, der ikke forstår kinesisk, befinder sig udstyret med algoritmen. Gennem en brevsprække kan personen få en række kinesiske skrifttegn, som han manipulerer ved at følge algoritmen. Når han har fulgt den til ende, har han fået en ny række kinesiske skrifttegn, som han sender ud gennem brevsprækken igen. En kineser, der på den måde kommunikerer med det lukkede rum gennem brevsprækken, vil kunne føre en meningsfuld samtale. "Computeren" (personen i rummet) vil imidlertid ikke forstå noget af samtalen, da vedkommende jo ikke forstår kinesisk; forståelse og intelligens er altså ikke det samme som udførelse af en algoritme.

Paradigmer

Man kan groft skelne mellem to forskellige forskningsprogrammer i AI svarende til to opfattelser af intelligensens struktur: Det klassiske symbolparadigme, som har været og til dels stadig er dominerende inden for AI, og det konnektionistiske paradigme, der har rødder tilbage til kybernetikken.

Ifølge symbolparadigmet må tænkning forstås som logisk manipulation med symboler efter bestemte regler. Tilsvarende må et AI-system beskrives på flere hierarkiske niveauer af information: fra den basale maskinkode, der er repræsenteret vha. rent fysisk hardware, over programmeringssprogets beskrivelse af den måde, informationen repræsenteres og behandles på, til selve det overordnede semantiske og intentionelle niveau (videns- eller meningsniveauet), hvor systemets hensigtsmæssige og rationelle kompetence angives.

Det konnektionistiske paradigme er især blevet udviklet i 1980'erne. Man taler her om distribuerede systemer for at understrege, at databehandlingen i princippet sker parallelt i et netværk af mange regneenheder og ikke serielt i én central enhed som i et klassisk AI-system. Vha. neurale netværk modelleres "intelligent adfærd" som et hensigtsmæssigt forhold mellem input- og outputsignaler til det kunstige netværk af "nerveceller", dvs. beregningsenheder med mange forbindelser, hvis indbyrdes styrke kan modificeres gennem træning mod et kendt datasæt.

Inden for dette paradigme udforskes ofte opgaver, som indebærer en form for mønstergenkendelse, -indlæring, og -kategorisering, fx af ansigter (mand eller kvinde?) eller røntgenbilleder (rask eller syg?). Disse systemer er ofte populære i de dele af AI, der tilstræber psykologisk realisme (jf. kognitionsforskning) og arbejder med problemer med vage kategorier.

Det klassiske symbolparadigme viderefører en rationalistisk opfattelse af tænkning som funderet i en på forhånd given logisk og sekventiel struktur (det indre tankesprog e.l.). Det konnektionistiske svarer mere til den empiristiske opfattelse i filosofien, hvor tænkning er erfaringsbaseret, og hvor tankernes indhold langsomt opbygges og afspejler det ofte billedagtige mønster, der måtte vise sig i de simple input af sansning, som tilføres kroppen eller maskinen. De to paradigmer har tilsvarende hver deres fortrin og svagheder; symbolparadigmet egner sig bedre til at modellere sproglige evner til sætningskonstruktion end neurale netværk, som til gengæld er overlegne til opgaver, der ikke beror på eksistensen af eksplicitte regler.

For begge paradigmer gælder, at de systemer, der konstrueres, ikke nødvendigvis efterligner et menneskes måde at løse en opgave på. Ofte spiller teknologisk udvikling af nyttige værktøjer en lige så stor rolle. Ud over anvendelse af AI-teknikker i forskning, biblioteksvæsen, sundhedsvæsen og i industriel produktion til processtyring spiller potentialet for militær udnyttelse af AI-teknologi (angrebs-, forsvars- og overvågningssystemer) en væsentlig rolle, ikke mindst for den fortsatte finansiering af AI-forskningen i USA, Europa og Japan.

Forskningsområder

Emnerne i AI-forskning er overlappende. Gennemgående er temaer som vidensrepræsentation (bl.a. i ekspertsystemer), søgning (fx efter information generelt eller gode træk i spil), kontrol samt indlæring. Man har fx søgt at modellere opdagelse af matematiske begreber i programmer som AM (Automated Mathematician) fra slutningen af 1970'erne, et AI-system, der dels oplagrede et sæt tommelfingerregler, heuristikker, om opdagelse og vurdering af matematiske begreber, dels repræsenterede de basale begreber fra mængde- og talteori.

En stor del af forskningen i AI har beskæftiget sig med at finde heuristiske procedurer for at indfange det aspekt ved rationel tænkning, der ikke beror på ubrydelige regler eller gennemgang af enhver tænkelig mulighed, hvad der ofte fører til "kombinatorisk eksplosion", og heller ikke på blind tilfældighed, men en art hensigtsmæssige tommelfingerregler for valg af næste skridt. Det viser sig ofte uhyre vanskeligt at indlejre en sådan type rationel sensibilitet, fx matematikerens evne til at generalisere begreber og til at indse, hvor dette ikke er muligt. Denne indsigt omfatter tilsyneladende mere, end hvad man kan indlejre som regler i et automatisk system. Hypotesen i klassisk AI, hvorefter intelligens skulle svare til at besidde en stor database samt et sæt logiske slutningsregler, forekommer dermed utilstrækkelig, da intelligens i så fald reduceres til logicitet.

Det er imidlertid langtfra umuligt at bruge AI-systemer som støtte for menneskelige beslutninger inden for begrænsede felter som spil, rumudnyttelse ved lastning af skibe, tidsskemalægning i virksomheder o.l. Men hvor de rent deduktive systemer i matematik og logik er monotont voksende (dvs. ekspanderende; de forkaster aldrig viden), er mennesker ikke-monotone; vi reviderer hele tiden meninger under indtryk af forandring og nye erfaringer. Mange af begrænsningerne ved de tidlige AI-systemer har inspireret nye forskningsområder, fx alternative former for ræsonneren, såsom ikke-monotone logikker, fuzzy logic, og kausale, rumlige og tidslige former for ræsonneren, altsammen områder, hvor formalisering af de menneskelige kompetencer er langt vanskeligere.

Et stort forskningsfelt er sprogsystemer, som kan udføre talegenkendelse, tekst-til-tale-generering og automatisk oversættelse. Et problem er her, at pålidelig oversættelse synes at forudsætte forståelse. Menneskers brug af naturligt sprog baserer sig nemlig ikke kun på formelle regler, men også på situationsforståelse og viden, ikke bare om sprogets syntaks, men også om indhold (semantik) og den videre mening i brugen af forskellige udtryk. Inden for snævre områder kan man dog formalisere segmenter af det naturlige sprog (fx juridiske lovtekster).

Syn (vision) er et selvstændigt AI-felt, der bl.a. omfatter forskning i linje- og teksturdetektion, dybdesyn, objektgenkendelse, mønstergenkendelse i billedbehandling og sensomotorisk kontrol i robotter. Forskningen er stadig på et eksperimenterende stadium og ret langt fra resultater med fx selvkørende biler eller robotter, der fejer gader og opsamler skrald. Såkaldt autonome agenter, ofte modelleret over insekters bevægelsesmåde, er et felt, hvor AI grænser op til kunstigt liv.

Muligheder og begrænsninger

På en række punkter har tanken om at formalisere og implementere menneskelig eller overmenneskelig intelligens i maskiner mødt skepsis. Kritikken samler sig især om stærk AI (Artificial Intelligence), dvs. tesen om, at det, man bygger, ikke blot er værktøjer og modeller, men en form for kunstig intelligens, der realiserer det samme fænomen som menneskets evne til tænkning. En række menneskelige evner lader sig tilsyneladende ikke mekanisere, men tilhængerne tolker de negative resultater som blot midlertidige mangler eller som uvæsentlige for intelligens i egentlig forstand.

Standardindvendingen er: En computer, og dermed et AI-system, kan ikke gøre mere end det, de er programmeret til. Mennesket besidder derimod intuition og kan gøre ting, det ikke er programmeret til, dvs. være kreativt. Altså kan maskiner aldrig opnå menneskelig intelligens.

Synspunktet rummer den svaghed, at vi ikke kender den dybeste baggrund for den menneskelige kreativitet, som kunne være af algoritmisk art, og at det ikke er trivielt sandt, at en computer kun kan det, den er programmeret til.

Da intuition og kreativitet er kendte, men delvis uforståede menneskelige egenskaber, har indvendingen ikke i sig selv afklaret spørgsmålet, men har givet anledning til andre, mere præcise indvendinger.

AI synes at forudsætte en form for bevidsthedsfilosofisk funktionalisme, dvs.en opfattelse, der siger, at tænkning forholder sig til hjernen, som et computerprogram forholder sig til den maskine, der udfører det.

Til denne kritik af funktionalismen har filosoffen John R. Searle fremført, at der kan indvendes to ting. Det er for det første ikke rigtigt, at semantikken (betydningsindholdet) hos et virkeligt intelligent system alene hidrører fra dets beregningsmæssige atomer og deres sammensætning. Fx lader sprogets betydninger sig ikke reducere til en grammatisk kalkyle. For det andet er analogien mellem maskinens hardware og den menneskelige hjerne problematisk ved at foregive, at begge behandler information.

Computerens hardware undergår en række skift i elektriske og magnetiske tilstande, som mennesket kan tolke både syntaktisk og semantisk, selvom hverken kredsløbene, harddisken eller de enkelte fysiske chips har nogen indre syntaks eller semantik, lige så lidt som tryksværten i en bog har det - det ligger i iagttagerens øjne.

Intelligens uden bevidsthed? Forbundet med ovenstående problem er, om systemer som disse overhovedet kan være bevidste. Hvis et AI-system ikke er det, kan tænkning og intelligens så realiseres i det? Det er vanskeligt at se, at et trods alt rent mekanisk system kan have bevidste oplevelser, hvilket, indtil andet er vist, må betragtes som et uløst problem for AI-forskningen. Det kan også diskuteres, om tænkning og generelt kognition kan adskilles totalt fra følelser og vilje. I menneskets psyke forekommer disse tæt forbundet, men i AI antages som regel, at intelligens kan efterlignes uafhængigt heraf.

Ny fysik? De fleste, der er involveret i hjerneforskning og AI, antager som udgangspunkt, at den menneskelige hjernes opbygning, ligesom en computers virkemåde, kan forstås ud fra den klassiske fysik (det gælder også AI-skeptikere som John R. Searle). En mere kontroversiel holdning har matematikeren og fysikeren Roger Penrose indtaget. Hans udgangspunkt er, at fx indsigt i matematiske beviser kræver en fundamental ikke-algoritmisk virkemåde af hjernen. Vi kan bl.a. indse sandheden af såkaldte Gödel-sætninger, der er uafgørlige for formelle systemer som en computer.

Derfor mener Roger Penrose, at der skal en helt ny fysisk teori med udgangspunkt i (den endnu ikke fundne teori for) kvantegravitation til at forklare hjernen. Han er dermed blevet en af de mest fremtrædende kritikere af stærk AI; hans idéer er dog stadig meget spekulative og uden eksperimentel støtte.

Videre konsekvenser. Hvis det trods alle vanskeligheder bliver muligt at lave intelligente maskiner, kan man pege på problemer, der mere handler om muligheder for brug og misbrug af informationsteknologi, fx ved arbejdsløshed,overvågning og krig med andre midler. Ikke mindst kan AI tænkes at have indvirkning på det almene menneskesyn. Ofte udtrykkes en bekymring om, at hvis mennesket blot viser sig at være en kompliceret mekanisme, har det skadelige virkninger for vores selvværd og moralske og sociale værdier. En anden tolkning af muligheden for AI er, at det blot vil vise, hvordan materielle systemer kan blive så organiserede, at de kan have de psykiske træk, der kendetegner mennesket. 2000-t. vil da se nye former for vekselvirkning mellem menneske og maskine.

I populærkulturen, især science fiction-genren, er der givet talrige bud på den fremtid, der venter mennesket i samlivet med den intelligente maskine. I Stanley Kubricks film Rumrejsen år 2001 (1968) (efter Arthur C. Clarkes roman) overtager computeren HAL kontrollen med rumskibet, da besætningen beslutter sig for at afbryde missionen og dermed ikke opfylde ekspeditionens målsætning.

Referér til denne tekst ved at skrive:
Claus Emmeche: kunstig intelligens i Den Store Danske, Gyldendal. Hentet 17. april 2018 fra http://denstoredanske.dk/index.php?sideId=112255