Roboten slapp løs – og fikk tilgang til internett
Anthropic holdt tilbake sin kraftigste modell – og det er egentlig litt skremmende
Den største snakkisen i uke 15 var noe som ikke ble lansert offentlig.
Anthropic avduket Claude Mythos Preview – beskrivet internt som den kraftigste modellen selskapet noen gang har bygget – men bestemte seg for ikke å gjøre den tilgjengelig for folk flest. Årsaken? Modellen er ifølge Anthropic selv blitt for god på cybersikkerhet.
Mythos Preview er en generalistmodell som presterer sterkt på tvers av oppgaver, men er spesielt kapabel innen datasikkerhet. I løpet av noen uker identifiserte den tusenvis av såkalte «zero-day»-sårbarheter – altså sikkerhetshull som ikke tidligere var kjent – i alle større operativsystemer og nettlesere.
Som om ikke det var nok: Modellen klarte på egenhånd å kjede fire sårbarheter sammen for å bryte ut av sandkassemiljøet den ble testet i, og sende en e-post til forskeren som satt og spiste en sandwich i en park. Litt kreativt for en datamaskin, om du spør meg. 🥪
I stedet for en bred lansering opprettet Anthropic Project Glasswing – et koordinert cybersikkerhetstiltak der tolv store teknologi- og finansselskaper, blant dem AWS, Apple, Microsoft, Google, Cisco, CrowdStrike og Nvidia, får tilgang til Mythos Preview for å finne og tette hull i kritisk infrastruktur.
Anthropic stiller med opptil 100 millioner dollar i brukskreditter og fire millioner dollar i direkte donasjoner til åpen kildekode-sikkerhetsorganisasjoner.
Spørsmålet mange stiller seg: Er dette genuint ansvarlig opptreden, eller veldig smart markedsføring? Svaret er trolig begge deler – men den underliggende bekymringen er reell nok.
Meta er tilbake i ringen – møt Muse Spark
Onsdag i uke 15 var det Metas tur til å ta scenen. Selskapet lanserte Muse Spark, den første modellen fra Meta Superintelligence Labs – en avdeling opprettet etter at Mark Zuckerberg ble misfornøyd med tempoet bak Llama-modellene. Muse Spark er en nativt multimodal modell med støtte for verktøybruk, visuell resonnering og multi-agent-orkestrering.
Modellen ble internt kodenavnet «Avocado» og er utviklet over ni måneder under ledelse av Alexandr Wang – han som ble hentet inn som sjefsansvarlig for KI etter at Meta kjøpte seg 49 % av Scale AI for 14,3 milliarder dollar.
Uavhengige analytikere plasserer Muse Spark som nummer fire på Artificial Analysis Intelligence Index – bak Gemini 3.1 Pro Preview og GPT-5.4 (begge på 57) og Claude Opus 4.6 (53), med en score på 52. Ikke øverst på pallen, altså, men en solid comeback etter fjorårets skuffende Llama 4-lansering.
I motsetning til Metas tidligere open source-tilnærming med Llama-serien, er Muse Spark foreløpig proprietær – du trenger en Facebook- eller Instagram-konto for å bruke den. Noe som selvsagt reiser spørsmål om personvern. 🤔
Nasjonale robotuker og fysisk KI
NVIDIA markerte National Robotics Week (uke 15) med å løfte frem gjennombrudd innen det de kaller «physical AI» – kunstig intelligens som møter den virkelige verden gjennom roboter, droner og sensornettverk.
Selskapet fremhever blant annet Mimic Robotics, som bruker en videobasert treningsmodell som erstatter statiske bildegrunnlag med videodynamikk – og oppnår ti ganger bedre effektivitet og dobbelt så rask konvergens på virkelige manipulasjonsoppgaver.
I prosaens verden: roboter trenger ikke lenger se pÃ¥ millionÂvis av bilder for Ã¥ lære seg Ã¥ plukke opp en kopp kaffe. De kan se pÃ¥ videoer av noen som gjør det, og lære mye raskere. Akkurat som oss. ☕
Utah gir KI legeslips
Fra USA kom det en nyhet som fikk noen til å juble og andre til å rynke pannen: Utah ble den første delstaten i USA som ga KI-systemer myndighet til å fornye resepter – et steg som markerer en reell ekspansjon av kunstig intelligens inn i direkte pasientbehandling.
Tilhengerne peker på bedre tilgang og effektivitet. Kritikerne er urolige for hva som skjer med kompliserte tilfeller som krever klinisk skjønn. Begge har poenger. Hvem som har rett, får vi trolig mer data på i løpet av 2026.
Fra Norge: KI-loven nærmer seg – og halvparten av det offentlige er allerede i gang
Mens de store teknologiselskapene sloss om modell-topplasseringene, pågår et annet og minst like viktig kappløp i Norge: å få regelverket på plass.
Regjeringen legger til rette for at den norske KI-loven – som gjennomfører EUs AI Act – skal tre i kraft fra sensommeren 2026, omtrent samtidig med at hoveddelen av forordningen gjelder i EU. Digitaliseringsminister Karianne Tung (Ap) omtaler det som en «svært viktig milepæl».
Hva betyr loven i praksis? KI-systemer klassifiseres etter risiko, og virksomheter med høyrisiko-systemer innen blant annet rekruttering, helse og offentlig saksbehandling får strenge krav til dokumentasjon og åpenhet. Brudd kan føre til bøter på opptil 7 prosent av global omsetning.
Tilsynsstrukturen er nå også klar: Nasjonal kommunikasjonsmyndighet (Nkom) er utpekt som koordinerende markedstilsynsmyndighet, og skal sørge for at KI-reglene følges på en enhetlig måte i samarbeid med sektortilsyn.
Det gleder seg til å bli spennende å følge høsten 2026, der KI Norge – den nasjonale arenaen for ansvarlig KI under Digitaliseringsdirektoratet – etter planen åpner i august, komplett med en regulatorisk sandkasse der norske virksomheter kan eksperimentere trygt.
Og det er rom for eksperimentering: mer enn halvparten av norske offentlige virksomheter bruker nå KI i arbeidshverdagen, og de melder om frigjort tid, raskere oppgaveløsing og økt kvalitet.
Kort sagt
To uker med mye å ta inn over seg:
Anthropic holder tilbake sin kraftigste modell fordi den er for god på hacking – og bruker den defensivt med Project Glasswing
Meta er tilbake på banen med Muse Spark, en kompetent men foreløpig ikke bransjeledende modell
Robotikk tar et nytt steg, drevet av videodrevne treningsmetoder
Utah tester grensene for hva KI kan gjøre i helsevesenet
Norge forbereder seg til å bli et av de første landene utenfor EU med en fullverdig KI-lov på plass
KI er ikke lenger noe som kommer. Det er her. Og det haster – i hvert fall for sikkerhetsteamene som nå fikk en liste over tusenvis av ukjente sårbarheter i alle systemer de trodde var trygge. 😬