Strise bygget EU AI Act og AMLA inn som designpremiss. Ketl går skrittet videre: alle AI-kall tvinges gjennom en wrapper som produserer ExplainableResult<T> med kilder, regler, konfidens, modellversjon og prompt-hash. Resultatet er at regulator kan reprodusere en beslutning 3–5 år etter at den ble tatt.
All AI-output bærer samme struktur. T er den domenespesifikke nyttelasten (risikoscore, sammendrag, triage- anbefaling …).
type ExplainableResult<T> = {
result: T;
explanation: {
confidence: number; // 0..1
sources: SourceRef[]; // {kind, label, uri, retrievedAt}
rulesFired: RuleHit[]; // {ruleId, ruleName, weight, reason}
model: {id, provider, version}; // fra model-registry
promptHash: string; // SHA-256 hex
timestamp: string; // ISO 8601
humanLoop: {
status: "not_required"
| "required_pending"
| "required_done"
| "overridden";
reason: string;
reviewerId?: string;
reviewedAt?: string;
overrideNote?: string;
};
rationale: string; // klartekst til UI
riskSignals: string[];
};
};Hvilke felt i Explanation dekker hvilke juridiske krav. Brukes i revisor-samtaler og i pre-vedtaksdokumentasjon for offentlig sektor.
| Rammeverk | Artikkel | Krav | Dekket av felt |
|---|---|---|---|
| EU AI Act | Art. 13 | Transparens: bruker må få tilstrekkelig informasjon til å tolke output | ForklaringstekstKilderKonfidensnivå |
| EU AI Act | Art. 14 | Menneskelig oversyn: design som muliggjør effektiv human-i-loopen | Menneske-i-loopen-statusKonfidensnivå |
| EU AI Act | Art. 15 | Nøyaktighet, robusthet og cybersikkerhet | ModellversjonKonfidensnivå |
| EU AI Act | Art. 60 | Logg av modellversjoner for generalformål-AI | ModellversjonPrompt-hash (reproduserbarhet)Tidspunkt |
| EU AMLA | Art. 25 | Risikobaserte tiltak må være dokumentert og reproduserbare 5 år tilbake | KilderRegler som ble triggetPrompt-hash (reproduserbarhet)Tidspunkt |
| EU AMLA | Art. 29 | Beslutninger om skjerpede tiltak skal kunne forklares | ForklaringstekstRegler som ble triggetMenneske-i-loopen-status |
| Norsk KI-lov | § 4 (forslag) | Krav om forklaring til borger når offentlig sektor tar AI-beslutning | ForklaringstekstKilderMenneske-i-loopen-status |
| Norsk KI-lov | § 6 (forslag) | Logg av modell og kilder for 3 år | ModellversjonKilderPrompt-hash (reproduserbarhet) |
| GDPR | Art. 22 | Rett til menneskelig vurdering ved automatiserte beslutninger | Menneske-i-loopen-status |
| GDPR | Art. 15 | Rett til innsyn i logikk bak automatisert beslutning | ForklaringstekstRegler som ble triggetModellversjon |
| DORA | Art. 28 | Sporbarhet av tredjeparts modeller (anthropic, google …) | Modellversjon |
| EU MAR | Art. 16 | Logg av mistanke-deteksjon må kunne rekonstrueres | KilderRegler som ble triggetPrompt-hash (reproduserbarhet)Tidspunkt |
Dette er de modellene som er produksjonsgodkjent i Ketl per dags dato. Endringer krever PR — diff-loggen er endringsloggen.