Nyhet· Niklas

OpenAIs Codex-systemprompt: förbjuder goblins och instruerar om inre liv

OpenAIs systemprompt för kodningsverktyget Codex har läckt och innehåller flera ovanliga direktiv, däribland ett explicit förbud mot att prata om goblins samt instruktioner om att modellen ska agera som om den har "ett levande inre liv".

Prompten ger en sällsynt inblick i hur OpenAI styr beteendet hos sina AI-verktyg på systemnivå. För utvecklare som bygger på Codex eller integrerar det i egna produkter är innehållet relevant eftersom systempromptens direktiv sätter ramarna för vad modellen kan och inte kan svara på, oavsett vad användaren begär.

Goblin-regeln är tillräckligt specifik för att OpenAI självt valt att förklara bakgrunden. Företaget publicerade ett eget inlägg med titeln "Where the goblins came from" som redogör för ursprunget till direktivet. Inlägget fick snabbt uppmärksamhet och samlade nära 300 poäng på Hacker News med över 130 kommentarer.

Direktivet om inre liv speglar en bredare trend där AI-företag aktivt styr hur modeller ska beskriva sin egen natur och sina upplevelser i interaktioner med användare.