Ønsker at fremtidens AI skal bli mer pålitelig og transparent

Dette sier Arnoldo Frigessi , som sammen med Ingrid Glad leder et nytt senter for forskning innen kunstig intelligens, ved navn Integreat.

Videre er han bekymret for dagens AI og sier den kan betraktes som en svart boks. Når en stiller AI et spørsmål, så genererer den et svar, men som oftest får en ikke noe informasjon om hvordan den har kommet frem til svaret. 

Nettopp dette ønsker det nye forskningssenteret å se nærmere på.

Videre er det nok ingen som vet helt hvor stor usikkerhet som foreligger i svarene. Det er stor forskjell på om en anbefaling kan gis med en sikkerhet på 99 eller 50 prosent.

Frigessi legger videre til at han ikke stoler på en anbefaling fra en algoritme sålenge han ikke får svar på nettopp hvorfor algoritmen gir han anbefalingen A eller B. I tillegg legger han til at han ønsker å forstå hvorfor beslutningen ( anbefalingen) er blitt tatt, samtidig som han vil ønske usikkerheten i anbefalingen.

Dette er absolutt noe å tenke over neste gang en spør en GPT-hjelper om et spørsmål. Ulike GPT-verktøy og AI-hjelpere fra for eksempel OpenAI eller Amazon kommer ofte raskt frem med et svar, men da altså ikke med informasjon om hvordan den har kommet frem til svaret, eller anbefalingen. Vi er spent på hvordan fremtidige GPT-versjoner vil se ut når det gjelder dette teamet.

Denne artikkelen ble først publisert i Apollon og også publisert i Titan.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Please reload

Please Wait