Lansering av Centre for AI Security and Safety

Lansering av Centre for AI Security and Safety

Date & time:
Location:
Simula Research LaboratoryKristian Augusts gate 23, Oslo

Lansering av Centre for AI Security and Safety

Velkommen til åpningen av vårt nye forskningssenter, Centre for AI Security and Safety, som skal bidra til sikker og trygg bruk av kunstig intelligens i Norge.

Kunstig intelligens er i ferd med å bli en bærende del av samfunnets digitale infrastruktur – i helsevesenet, forsvarssektoren og i offentlig forvaltning for øvrig. Men økt bruk av KI øker også risikoen for misbruk og utilsiktede konsekvenser. Hvem skal passe på at utviklingen går riktig vei?

Simula Research Laboratory og Digital Norway inviterer til den offisielle åpningen av Simula’s nye Centre for AI Security and Safety, et uavhengig forskningssenter som skal bidra til sikker og trygg bruk av kunstig intelligens i Norge.

Arrangementet finner sted hos oss i Kristian Augusts gate 23 Onsdag 29. april 2026, kl. 15:00–16:30. Dørene åpner kl. 14:30.

Meld deg på via digitalnorway.com

Arrangementet streames også direkte, lenke deles i påmeldingsbekreftelsen.

Program

Dørene åpner 14:30

Vertskap/konferansier: Lillian Røstad og Liv Dingsør

15:00 – Åpning ved Sigrun Aasland, Forsknings- og høyere utdanningsminister

15:15 – Om internasjonale sikkerhetsinstitutt for KI: Kat Lyness (UK AI Security Institute, UK AISI), med spørsmål

15:35 – Lillian Røstad: Kort om overordnet plan for Centre for AI Security and Safety

15:40 – Professor Michael Riegler (SimulaMet) om KI-trygghet og KI-sikkerhet: “Most safety work happens where models are built. We work where they are used” 

16:00 – Eksempelprosjekter

From Technological Curiosity to AI Responsibility, Annika Willoch Olstad, doktorgradsstipendiat ved Simula.

Auditing AI Systems and Monitoring Autonomous Agents, Sushant Gautam, doktorgradsstipendiat ved SimulaMet.

16:15 – Brukerperspektiver fra offentlig sektor
Hilde Lovett, spesialrådgiver ved Helsedirektoratet “Samarbeid om kvalitet og forsvarlighet”. Bjørn-Tore Markussen, direktør for teknologi og IKT ved Forsvaret

16:30– Takk og vel hjem! Lillian/Liv

Introduksjon av innlegg fra Simula:


Michael Riegler (SimulaMet) om AI Safety:
Most safety work happens where models are built. We work where they are used

As AI systems move from research labs into critical infrastructure, the gap between what a model scores on a benchmark and how safely it behaves in deployment has never mattered more. We have spent the last years building evidence-based tools and methods to close that gap, for governments, companies, and institutions deploying AI in the real world.

This talk presents our AI safety research agenda: our philosophy, our key findings, and the tools we have built. We believe safety research must produce both deeper scientific understanding of why and when AI systems fail, and practical tools that can actually be deployed without commercial dependencies. As one example, we show that standard pre-deployment evaluation corpora are statistically too small to characterize tail risk. A clean evaluation is not evidence of safety, it is evidence of an underpowered test. Looking ahead, we outline our vision for the new Simula Centre for AI Security and Safety, and our direction of combining interpretability with safety testing to move beyond black-box evaluation.

Annika Willoch Olstad (Simula), eksempelprosjekt:
From Technological Curiosity to AI Responsibility

Gen Z now entering research brings fresh perspectives on technology that once inspired and later challenged society, such as social media. Are we now seeing the same challenges emerging in AI? In this talk, I explore the motivation for starting a PhD focused on safe, secure and responsible AI. 

Sushant Gautam (SimulaMet), eksempelprosjekt:

Auditing AI Systems and Monitoring Autonomous Agents

This presentation introduces two examples of practical AI safety work. We present SimpleAudit, an open framework for systematically auditing AI system behavior and supporting its adoption in real-world settings, and the Moltbook Observatory, a rapid-response effort built to track and analyze autonomous AI agent behavior at scale. Together, these highlight complementary approaches to understanding and improving AI systems in practice.

Om senteret

Senteret fokuserer på to overlappende fagretninger:

KI-sikkerhet (AI Security) handler om bevisste angrep og ondsinnet bruk av KI-systemer. Forskningen ledes av professor Leon Moonen ved Simula Research Laboratory.

KI-trygghet (AI Safety) handler om utilsiktet skade og pålitelighet i KI-systemer. Forskningen ledes av professor Michael Riegler ved SimulaMet.

→ Centre for AI Security and Safety