
Lansering av Centre for AI Security and Safety
- Date & time:
- Location:
- Simula Research LaboratoryKristian Augusts gate 23, Oslo
Lansering av Centre for AI Security and Safety
Velkommen til åpningen av vårt nye forskningssenter, Centre for AI Security and Safety, som skal bidra til sikker og trygg bruk av kunstig intelligens i Norge.
Kunstig intelligens er i ferd med å bli en bærende del av samfunnets digitale infrastruktur – i helsevesenet, forsvarssektoren og i offentlig forvaltning for øvrig. Men økt bruk av KI øker også risikoen for misbruk og utilsiktede konsekvenser. Hvem skal passe på at utviklingen går riktig vei?
Simula Research Laboratory og Digital Norway inviterer til den offisielle åpningen av Simula’s nye Centre for AI Security and Safety, et uavhengig forskningssenter som skal bidra til sikker og trygg bruk av kunstig intelligens i Norge.
Arrangementet finner sted hos oss i Kristian Augusts gate 23 Onsdag 29. april 2026, kl. 15:00–16:30. Dørene åpner kl. 14:30.
Meld deg på via digitalnorway.com
Arrangementet streames også direkte, lenke deles i påmeldingsbekreftelsen.
Program
Dørene åpner 14:30
Vertskap/konferansier: Lillian Røstad og Liv Dingsør
15:00 – Åpning ved Sigrun Aasland, Forsknings- og høyere utdanningsminister
15:15 – Om internasjonale sikkerhetsinstitutt for KI: Kat Lyness (UK AI Security Institute, UK AISI), med spørsmål
15:35 – Lillian Røstad: Kort om overordnet plan for Centre for AI Security and Safety
15:40 – Professor Michael Riegler (SimulaMet) om KI-trygghet og KI-sikkerhet: “Most safety work happens where models are built. We work where they are used”
16:00 – Eksempelprosjekter
From Technological Curiosity to AI Responsibility, Annika Willoch Olstad, doktorgradsstipendiat ved Simula.
Auditing AI Systems and Monitoring Autonomous Agents, Sushant Gautam, doktorgradsstipendiat ved SimulaMet.
16:15 – Brukerperspektiver fra offentlig sektor
Hilde Lovett, spesialrådgiver ved Helsedirektoratet “Samarbeid om kvalitet og forsvarlighet”. Bjørn-Tore Markussen, direktør for teknologi og IKT ved Forsvaret
16:30– Takk og vel hjem! Lillian/Liv
Introduksjon av innlegg fra Simula:
Michael Riegler (SimulaMet) om AI Safety:
“Most safety work happens where models are built. We work where they are used”
As AI systems move from research labs into critical infrastructure, the gap between what a model scores on a benchmark and how safely it behaves in deployment has never mattered more. We have spent the last years building evidence-based tools and methods to close that gap, for governments, companies, and institutions deploying AI in the real world.
This talk presents our AI safety research agenda: our philosophy, our key findings, and the tools we have built. We believe safety research must produce both deeper scientific understanding of why and when AI systems fail, and practical tools that can actually be deployed without commercial dependencies. As one example, we show that standard pre-deployment evaluation corpora are statistically too small to characterize tail risk. A clean evaluation is not evidence of safety, it is evidence of an underpowered test. Looking ahead, we outline our vision for the new Simula Centre for AI Security and Safety, and our direction of combining interpretability with safety testing to move beyond black-box evaluation.
Annika Willoch Olstad (Simula), eksempelprosjekt:
“From Technological Curiosity to AI Responsibility”
Gen Z now entering research brings fresh perspectives on technology that once inspired and later challenged society, such as social media. Are we now seeing the same challenges emerging in AI? In this talk, I explore the motivation for starting a PhD focused on safe, secure and responsible AI.
Sushant Gautam (SimulaMet), eksempelprosjekt:
“Auditing AI Systems and Monitoring Autonomous Agents”
This presentation introduces two examples of practical AI safety work. We present SimpleAudit, an open framework for systematically auditing AI system behavior and supporting its adoption in real-world settings, and the Moltbook Observatory, a rapid-response effort built to track and analyze autonomous AI agent behavior at scale. Together, these highlight complementary approaches to understanding and improving AI systems in practice.
Om senteret
Senteret fokuserer på to overlappende fagretninger:
KI-sikkerhet (AI Security) handler om bevisste angrep og ondsinnet bruk av KI-systemer. Forskningen ledes av professor Leon Moonen ved Simula Research Laboratory.
KI-trygghet (AI Safety) handler om utilsiktet skade og pålitelighet i KI-systemer. Forskningen ledes av professor Michael Riegler ved SimulaMet.