AI
Når maskiner nærmer seg menneskelig forståelse
Forskere ved TU Berlin, Google DeepMind og to Max-Planck-institutter har utviklet et system kalt AligNet.
Målet er å få kunstige nevrale nettverk til å tolke bilder på en måte som ligner menneskers forståelse, der både kontekst, betydning og forhold mellom objekter tas med i vurderingen.
Hva dagens modeller mangler
Algoritmer analyserer hver dag enorme mengder bilder, men selv avanserte systemer begrenser seg vanligvis til å kjenne igjen former, mønstre og farger. De forstår ikke hvordan ting henger sammen eller hva en scene egentlig uttrykker. For mennesker er dette naturlig. Vi organiserer kunnskap i hierarkier der konkrete detaljer, brede kategorier og abstrakte begreper henger sammen.
Denne typen struktur er vanskelig å etterligne i kunstige systemer. Derfor har forskerne utviklet en metode som lærer maskiner å nærme seg menneskelig tenkemåte.
En læringsmodell inspirert av mennesker
Forskerne bruker en totrinnsprosess. Først trenes et lærersystem til å gjenskape menneskelige vurderinger av hvor like eller ulike bilder er. Deretter lærer et eget elevsystem å tilpasse sin egen bildebehandling til disse vurderingene.
Les også: Er iOS egentlig sikrere enn Android?
I publiseringen beskriver førsteforfatter Lukas Muttenthaler målet slik: De ønsket å forstå hva som mangler i dagens systemer for at de ikke bare skal levere gode resultater, men også organisere kunnskap i mønstre som minner om menneskelig forståelse.
Mye høyere treffsikkerhet
En del av grunnlaget for modellen var en egen datasamling med rundt 500 deltakere som sammenlignet bilder og vurderte hvor nært beslektet motivene var. Forskerne registrerte også reaksjonstidene. Lang betenkningstid ble tolket som et tegn på usikkerhet, og disse dataene ble brukt i treningen. Det skriver chip.
Dette ga tydelige resultater. Etter optimaliseringen var modellene mer presise og bedre i stand til å fange opp sammenhenger. Ved enkle kategoriseringer økte samsvaret med menneskelige vurderinger med opptil 93 prosent. I mer krevende oppgaver kunne resultatene bli mellom 25 og 150 prosent bedre enn før. Også stabiliteten i situasjoner utenfor treningsdataene økte markant.
Maskiner som viser menneskelignende usikkerhet
Et interessant funn var at modellene etter treningen kunne vise usikkerhet i samme situasjoner som mennesker. Før optimaliseringen var det liten sammenheng, men etterpå var korrelasjonen tydelig. Når mennesker brukte tid på å vurdere et bilde, kunne modellen gjøre det samme.
Andrew Lampinen fra Google DeepMind beskriver arbeidet som en måte å lære datamodeller den hierarkiske strukturen bak menneskelig kunnskap. Det gjør systemene lettere å forstå og mer robuste i utfordrende oppgaver.
Mer pålitelige systemer
Selv om forskningen kan virke teoretisk, har den praktiske konsekvenser. Bedre forståelse av mening og sammenheng kan være særlig nyttig i medisinsk bildediagnostikk, analyse av trafikkbilder i selvkjørende biler eller andre områder der feil kan få store følger.
Et system som gir mer oversiktlige og etterprøvbare beslutninger, vil være lettere å stole på. Dette er et viktig mål i bransjer der kunstig intelligens får stadig større ansvar.
Bro mellom menneskelig og maskinell tenkning
Professor Klaus-Robert Müller ved TU Berlin sier at prosjektet kobler kunnskap fra kognitiv vitenskap med moderne maskinlæring. På sikt kan metoden også brukes i språkmodeller eller systemer som kombinerer tekst og bilder.
Forskningen peker mot en ny generasjon KI som både er mer presis og mer forståelig, og som ikke skal erstatte mennesker, men støtte dem bedre.
Les også: Gigatabbe for OpenAI: Ny sikkerhetssmell rammer brukere

