Følg oss her

AI

Når maskiner nærmer seg menneskelig forståelse

Forskere ved TU Berlin, Google DeepMind og to Max-Planck-institutter har utviklet et system kalt AligNet.

Publisert

d.

Foto: Shutterstock

Målet er å få kunstige nevrale nettverk til å tolke bilder på en måte som ligner menneskers forståelse, der både kontekst, betydning og forhold mellom objekter tas med i vurderingen.

Hva dagens modeller mangler

Algoritmer analyserer hver dag enorme mengder bilder, men selv avanserte systemer begrenser seg vanligvis til å kjenne igjen former, mønstre og farger. De forstår ikke hvordan ting henger sammen eller hva en scene egentlig uttrykker. For mennesker er dette naturlig. Vi organiserer kunnskap i hierarkier der konkrete detaljer, brede kategorier og abstrakte begreper henger sammen.

Denne typen struktur er vanskelig å etterligne i kunstige systemer. Derfor har forskerne utviklet en metode som lærer maskiner å nærme seg menneskelig tenkemåte.

En læringsmodell inspirert av mennesker

Forskerne bruker en totrinnsprosess. Først trenes et lærer­system til å gjenskape menneskelige vurderinger av hvor like eller ulike bilder er. Deretter lærer et eget elev­system å tilpasse sin egen bildebehandling til disse vurderingene.

Les også: Er iOS egentlig sikrere enn Android?

I publiseringen beskriver førsteforfatter Lukas Muttenthaler målet slik: De ønsket å forstå hva som mangler i dagens systemer for at de ikke bare skal levere gode resultater, men også organisere kunnskap i mønstre som minner om menneskelig forståelse.

Mye høyere treffsikkerhet

En del av grunnlaget for modellen var en egen datasamling med rundt 500 deltakere som sammenlignet bilder og vurderte hvor nært beslektet motivene var. Forskerne registrerte også reaksjonstidene. Lang betenkningstid ble tolket som et tegn på usikkerhet, og disse dataene ble brukt i treningen. Det skriver chip.

Dette ga tydelige resultater. Etter optimaliseringen var modellene mer presise og bedre i stand til å fange opp sammenhenger. Ved enkle kategoriseringer økte samsvaret med menneskelige vurderinger med opptil 93 prosent. I mer krevende oppgaver kunne resultatene bli mellom 25 og 150 prosent bedre enn før. Også stabiliteten i situasjoner utenfor treningsdataene økte markant.

Maskiner som viser menneskelignende usikkerhet

Et interessant funn var at modellene etter treningen kunne vise usikkerhet i samme situasjoner som mennesker. Før optimaliseringen var det liten sammenheng, men etterpå var korrelasjonen tydelig. Når mennesker brukte tid på å vurdere et bilde, kunne modellen gjøre det samme.

Andrew Lampinen fra Google DeepMind beskriver arbeidet som en måte å lære datamodeller den hierarkiske strukturen bak menneskelig kunnskap. Det gjør systemene lettere å forstå og mer robuste i utfordrende oppgaver.

Mer pålitelige systemer

Selv om forskningen kan virke teoretisk, har den praktiske konsekvenser. Bedre forståelse av mening og sammenheng kan være særlig nyttig i medisinsk bildediagnostikk, analyse av trafikkbilder i selvkjørende biler eller andre områder der feil kan få store følger.

Et system som gir mer oversiktlige og etterprøvbare beslutninger, vil være lettere å stole på. Dette er et viktig mål i bransjer der kunstig intelligens får stadig større ansvar.

Bro mellom menneskelig og maskinell tenkning

Professor Klaus-Robert Müller ved TU Berlin sier at prosjektet kobler kunnskap fra kognitiv vitenskap med moderne maskinlæring. På sikt kan metoden også brukes i språkmodeller eller systemer som kombinerer tekst og bilder.

Forskningen peker mot en ny generasjon KI som både er mer presis og mer forståelig, og som ikke skal erstatte mennesker, men støtte dem bedre.

Les også: Gigatabbe for OpenAI: Ny sikkerhetssmell rammer brukere

Hei, jeg heter Amandus. Jeg er skribent i Media Group Denmark, der jeg hovedsakelig jobber med Teksiden.no. Her skriver jeg om nye biler, mobiltelefoner og annen spennende teknologi. Jeg har vært skribent i seks måneder, med et særlig fokus på teknologinyheter.

Annonse