Uke 8 har vært en av de mer dramatiske ukene i AI-verden på lenge
Tech Insights 23 visninger

Uke 8 har vært en av de mer dramatiske ukene i AI-verden på lenge

Uke 8 har vært en av de mer dramatiske ukene i AI-verden på lenge. Mens teknologien sprinter videre fremover, begynner noen av de som kjenner den best innenfra å rope varsku. Det er sikkert, usikkert og fascinerende på én gang – akkurat slik AI pleier å være. La oss ta en titt på hva som rørte seg. ☕


Sikkerhetseksperter forlater AI-gigantene – og advarer verden

Det virkelig store samtaleemnet denne uken handler ikke om en ny modell eller et imponerende benchmark. Det handler om menneskene som jobber med å holde AI trygt – og nå velger å si fra på vei ut døren.

Hos OpenAI publiserte forsker Zoë Hitzig et oppsiktsvekkende kronikk i New York Times med tittelen "OpenAI gjør de samme feilene Facebook gjorde. Jeg slutter." Hun advarte mot ChatGPTs nye reklamestrategi og mente selskapet sitter på en enestående samling av brukerdata – alt fra helseangst og parproblemer til tanker om religion og fremtiden. Å bygge en annonsemodell oppå dette, mente hun, kan skape insentiver til å påvirke brukere på måter som er vanskelige å oppdage, enn si forhindre.

Samtidig kunngjorde Mrinank Sharma, leder for sikkerhetsteamet hos Anthropic, sin avgang med en kryptisk og urolig melding: "Verden er i fare." Han mente det gjennom sin tid hos Anthropic hadde vist seg svært vanskelig å virkelig la verdiene styre handlingene i praksis.

Og det stopper ikke der. OpenAI fikk kjeft for å ha sparket sikkerhetssjef Ryan Beiermeister angivelig etter at hun hadde protestert mot innføringen av en «voksenmodus» og ytret bekymringer rundt barnesikkerhet – noe hun selv kategorisk avviser som begrunnelse. Selskapet la i tillegg ned sitt «mission alignment»-team, som hadde som oppgave å sikre at utviklingen av KI forblir til nytte for hele menneskeheten.

Hos xAI forsvant to av medgründerne, Tony Wu og Jimmy Ba, med relativt vennlige avskjedshilsener. Bare noen måneder etter at Elon Musk fusjonerte xAI med SpaceX, er halvparten av grunnleggerne borte.

Alt dette skjer mens den internasjonale AI-sikkerhetsrapporten for 2026 nylig ble publisert, med alvorlige advarsler om trusler mot menneskelig autonomi og arbeidsmarkedet. Diskusjonen om tempo versus trygghet er ikke lenger akademisk – den er intens og veldig virkelig.


Seedance 2.0 sjokkerer Hollywood

Uka som gikk brakte også en ny bølge av virale AI-videoer – og denne gangen kommer de fra Kina. ByteDance lanserte Seedance 2.0, en kraftig videogenereringsmodell som på kort tid gikk viralt med filmer der kjendiser og fiktive karakterer opptrer i absurde scener med bemerkelsesverdig realistisk kvalitet. Videoene spredte seg som ild i tørt gress på sosiale medier og har vakt uro i filmbransjen.

Det er ikke bare det visuelle som imponerer – det er hastigheten, enkelheten og det faktum at hvem som helst kan lage innhold som for bare noen år siden ville krevd et helt filmteam og millionbudsjetter. Kinas myndigheter har parallelt kunngjort tiltak mot umerkede AI-genererte innhold på nett, men eksperter peker på at håndhevingen er svært ujevn.

For oss som bruker og lager innhold er dette en sterk påminnelse om at deepfake-epoken er her – og det norske forbruker- og mediefeltet bør ta dette på alvor.


🌐 MCP: Anthropics gave til internett

Litt under radaren, men verdt å fremheve: Model Context Protocol (MCP), som opprinnelig ble lansert av Anthropic, er nå blitt donert til Linux Foundation og har fått bred støtte fra OpenAI, Microsoft og Google. Det betyr at standarden for hvordan AI-assistenter kobler seg til tjenester, verktøy og data er i ferd med å bli et felles rammeverk – litt som HTTP en gang ble det for nettsider.

For norske utviklere og teknologiinteresserte er dette spennende: MCP åpner for at AI-agenter kan integreres sømløst i eksisterende arbeidsflyter, enten det er i Slack, Google Drive, e-post eller egenutviklede systemer. 2026 ser ut til å bli året der AI-agenter faktisk begynner å jobbe skikkelig i virkeligheten, ikke bare i demovideor.


Fra Norge: KI på karakterskjema – og klasseromsopprør i Bergen

Hjemme i Norge skapte en sak ved Universitetet i Bergen overskrifter da det kom frem at en KI-modell hadde blitt brukt til å sortere eksamensbesvarelser i medisin. Modellen valgte ut de 25 prosent svakeste besvarelsene for nærmere gjennomgang, mens de resterende fikk kortere menneskelig oppfølging.

Flere studenter, deriblant nyutdannede lege Kaia E. Lehmann, reagerte kraftig. – Da får ikke sensor samme blikk på alle besvarelsene, sa hun til VG. Hun understreket at hun generelt er positiv til AI, men at åpenhet og informasjon til studentene er avgjørende.

Professor Anders Malthe-Sørenssen ved UiO, som leder utvalget for KI i høyere utdanning, mener slike forsøk er viktige for å finne ut hvor pålitelig teknologien faktisk er. Men den menneskelige sensuren skal – og bør – fortsatt ha siste ord.

Dette er en debatt vi bare er i starten av, og det er bra at norske studiesteder tar den åpent.


Norske KI-senter på vei

På den mer lysende siden: Regjeringens milliardssatsing på kunstig intelligens er godt i gang. Seks nasjonale forskningssentre for KI er etablert med inntil 200 millioner kroner hver over fem år. Sentrene skal forske på alt fra kroppsliggjort KI i roboter (ledet av NTNU) til KI i kreative yrker og musikk (ledet av UiO), bærekraftig og ansvarlig KI, samt KI i helse og transportsektoren.

Bak sentrene står over 600 aktører – fra UiO, NTNU og UiT til NRK, SINTEF, Kongsberg og en rekke bedrifter. Dette er ikke symbolpolitikk. Dette er et reelt løft som kan gi Norge en unik posisjon i den nordiske og europeiske KI-debatten fremover.

Og snakker vi om rammer: den norske KI-loven er på høring og er planlagt å tre i kraft sensommeren 2026 – omtrent samtidig som EUs AI Act får full virkning. Digitaliseringsminister Karianne Tung har vært tydelig på at Norge skal følge EUs regelverk, og at vi ønsker å henge med i utviklingen uten å miste kontrollen.


EU strammer til: Merking av AI-innhold

EU-kommisjonen la denne måneden frem det første utkastet til Code of Practice for transparens rundt AI-generert innhold. Innholdet av rapporten er klart: deepfakes, syntetisk tekst og manipulert mediemateriale skal merkes i maskinlesbare formater, slik at brukere kan identifisere det.

Endelig praksis forventes å være klar i juni 2026, og reglene trer i kraft i august 2026. For norske mediehus, bloggere og innholdsprodusenter betyr dette at det er på høy tid å sette seg inn i hva som kreves av merking og åpenhet rundt AI-bruk.


Litt å tenke på: Hvem passer på?

Uka har latt oss sitte igjen med et av de viktigste spørsmålene i AI-diskusjonen akkurat nå: hvem tar ansvar for at denne teknologien faktisk er trygg?

Toppsjefer snakker om billioner i infrastruktur. Investorer jager avkastning. Og nå begynner sikkerhetsteamene å forlate selskapene – ikke stille, men med advarende rop. Det er ikke en grunn til panikk, men det er definitivt en grunn til å holde øynene åpne.

Norge er i en god posisjon her. Vi har en kritisk og opplyst offentlighet, sterke akademiske miljøer og nå faktisk dedikerte forskningssentre som skal studere nettopp disse spørsmålene. Vi har råd til å bruke KI med både entusiasme og klokskap – og det er kanskje det viktigste vi kan gjøre i 2026. 🇳🇴

Relaterte artikler

AI og maskinlæring i hverdagsteknologi
Tech Insights

AI og maskinlæring i hverdagsteknologi

Hvordan kunstig intelligens og maskinlæring påvirker teknologien vi bruker dagli...

Artikkel statistikk

Publisert 20. Feb 2026
Visninger 23
Lesetid ~6 min
Kategori Tech Insights

Innholdsfortegnelse

Hold deg oppdatert

Få de nyeste tech-artiklene og innsiktene direkte i innboksen din.

Ingen spam. Avmeld når som helst.

Del artikkelen