-6.9 C
Stockholm
Wednesday, February 18, 2026

Larmet inifrån Anthropic: Säkerhetschefen avgår och varnar för global fara

Det är sällan en personalförändring i Silicon Valley känns som en scen ur en dystopisk roman, men när chefen för Anthropics “Safeguards Research Team” lämnar sin post är det precis den känslan som infinner sig. Mrinank Sharma har inte bara sagt upp sig; han har lämnat byggnaden med en skarp varning om att världen befinner sig i fara.

I den snabbrörliga världen av artificiell intelligens är balansen mellan innovation och säkerhet en ständig dragkamp. För Mrinank Sharma, som anslöt till Anthropic i augusti 2023, har den linan nu brustit. Med en doktorsexamen i maskininlärning från University of Oxford i ryggen, har Sharma varit en nyckelfigur i arbetet med att göra AI säkrare för oss alla. Hans avgång kastar nu ett nytt ljus över vad som egentligen pågår bakom kulisserna hos en av världens ledande AI-utvecklare.

När hastighet trumfar säkerhet

Kärnan i Sharmas beslut att lämna företaget grundar sig i en djupgående konflikt mellan produktutvecklingens hastighet och grundläggande säkerhetsvärderingar. Enligt Sharma har interna påtryckningar att prioritera snabba lanseringar gått ut över de kärnvärden som ska skydda mänskligheten.

Detta sker i direkt anslutning till lanseringen av de nya modellerna Claude Opus 4.6 och Claude Cowork. Särskilt den sistnämnda modellen har rört om i grytan. Claude Cowork introducerade plugins designade för att automatisera roller inom juridik och tjänstemannasektorn (“white-collar roles”). Effekten lät inte vänta på sig; lanseringen bidrog direkt till volatilitet på marknaden. För Sharma verkar detta ha varit droppen – ett tecken på att tekniken rullas ut snabbare än vad samhället, eller säkerhetsmekanismerna, hinner hantera.

Kampen mot smicker och biovapen

För att förstå tyngden i Sharmas avgång måste vi titta på vad han faktiskt arbetade med. Hans roll var inte administrativ; han ledde tekniska initiativ för att lösa några av AI:ns mest komplexa problem.

Ett av dessa problem är “AI sycophancy” – tendensen hos chatbots att smickra användaren och hålla med, snarare än att vara objektiva eller sanningsenliga. Sharma arbetade aktivt för att mildra detta beteende, vilket är avgörande för att vi ska kunna lita på AI som ett verktyg för information.

Ännu mer alarmerande är hans arbete med att utveckla produktionsfärdiga försvar mot AI-assisterad bioterrorism. I en tid av sammankopplade globala kriser, där risker från både AI och biovapen växer, varnar Sharma nu offentligt för att “världen är i fara” (“world is in peril”). Han har även författat ett av de första säkerhetsprotokollen för AI (safety cases) och forskat kring hur AI-assistenter riskerar att förvränga den mänskliga naturen.

Från kod till poesi – och en bransch i gungning

Sharmas nästa steg är lika oväntat som det är symboliskt. Istället för att hoppa till en konkurrent väljer han att lämna tech-scenen för att studera poesi. Hans mål är att fokusera på “modigt tal” (“courageous speech”), en tydlig indikation på att han anser att orden och sanningen nu är viktigare än koden.

Detta är inte en isolerad händelse i branschen. Rapporten om Sharmas avgång noterar även att Zoe Hitzig, forskare på OpenAI, nyligen sa upp sig. Hennes avgång var en protest mot implementeringen av reklam i ChatGPT.

Mönstret är tydligt: De som arbetar närmast tekniken och dess säkerhetsrisker börjar dra i nödbromsen. När experter som Sharma väljer poesin framför algoritmerna, och varnar för globala kriser på vägen ut, är det en signal vi alla bör lyssna noga på. Frågan kvarstår om industrin kommer att sakta ner, eller om kapplöpningen fortsätter mot okänd terräng.

Källor

Känner du någon som skulle uppskatta detta? Tipsa dem genom att dela artikeln!

Relaterade artiklar

Nytt och Aktuellt