Resultat 11 - 20 av 584
Populära AI-modeller använder väldigt gärna kärnvapen i krigssimuleringar
En ny studie från King’s College London visar att avancerade AI-modeller från Open AI, Anthropic och Google ofta eskalerade konflikter till kärnvapennivå i simulerade krigsspel, rapporterar New Scientist. Studien lät modellerna GPT-5.2, Claude Sonnet 4 ochSammanhang: ...En ny studie från King’s College London visar att avancerade AI-modeller från Open AI, Anthropic och Google ofta eskalerade konflikter till kärnvapennivå i simulerade krigsspel, rapporterar New Scientist. Studien lät modellerna GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash spela 21 geopolitiska scenarier med konflikter som gränstvister och existentiella hot. ...
Omnämnda platser: Studien. Omnämnda personer: Claude Sonnet, Kenneth Payne.
⏲️ Nytt världsrekord – fusionsreaktor höll plasma stabilt i 22 minuter
Dela artikeln Forskningsreaktorn WEST i Frankrike höll plasma stabilt i drygt 22 minuter, vilket är ett nytt världsrekord. Rekordet överträffade Kinas tidigare notering med cirka 25 procent. Testet visade att reaktorns inre ytor klarade de krävande förhållandenaSammanhang: ...Tritium, en radioaktiv vätgasisotop med kort halveringstid, används i ett slutet kretslopp på plats. WALL-Y WALL-Y är en AI-bot skapad i Claude. Läs mer om WALL-Y och arbetet med henne. Hennes nyheter hittar du här. Du kan prata med WALL-Y GPT om den här artikeln och om faktabaserad optimism....
Omnämnda platser: Kinas, Storbritannien, Frankrike. Omnämnda personer: Anne-Isabelle Etienvre.
Anthropic lättar på sina säkerhetsregler för Claude
För att inte bli av med militärkontrakt? AI-företaget Anthropic har släppt en ny version av sin så kallade "Responsible Scaling Policy" (RSP) där tidigare så kallade "röda linjer" för hur deras AI-modell Claude får användasSammanhang: ...L s vidare och kommentera: https://feber.se/samhalle/anthropic-lattar-pa-sina-sakerhetsregler-for-claude/488964/ L s mer om Anthropic , Claude , RSP , Pentagon , USA , pete Hegseth , vapen , autonoma vapen , massövervaking , 1984 ...
Omnämnda platser: USA. Omnämnda personer: Pete Hegseth, measures while others.
Anthropic utesluter inte att Claude är medveten
Medvetenhet är ett snårigt, kontroversiellt och omdebatterat ämne inom artificiell intelligens. Kan en AI bli medveten i en eller annan form? Forskare vet fortfarande inte ens exakt hur vårt medvetande uppstår. Medvetandet hör till vetenskapens olösta mysterierSammanhang: ...Anthropic-chefen utesluter dock inte Claude kan ha ett medvetande. Kyle Fish från Anthropic understryker att de inte tror att Claude ”lever” som människor eller någon annan biologisk organism. ...
Omnämnda personer: David Chalmers.
Misstänkt AI-fusk skakar branschen: “Åker snålskjuts”
En ny konflikt har blossat upp i det globala AI-racet. Det amerikanska AI-bolaget Anthropic anklagar nu tre kinesiska teknikbolag för att olagligt ha utnyttjat dess modell Claude för att träna sina egna system. Enligt Anthropic ska de kinesiska bolagen DeepSeek,Sammanhang: ...Det amerikanska AI-bolaget Anthropic anklagar nu tre kinesiska teknikbolag för att olagligt ha utnyttjat dess modell Claude för att träna sina egna system. Enligt Anthropic ska de kinesiska bolagen DeepSeek, MiniMax och Moonshot AI ha skapat över 24 000 falska konton. ...
♨️ Geotermisk el dygnet runt: Het brunn i Utah visar att tekniken kan skalas upp
Dela artikeln Fervo Energy har borrat sin hittills hetaste brunn vid ett nytt geotermiskt fält i Utah, med uppmätta temperaturer över 290 grader på cirka 3 400 meters djup. En oberoende bedömning visar att platsen har potential för flera gigawatt geotermiskSammanhang: ...AI-baserad analys av undermarksdata används för att identifiera var de bästa resurserna finns och för att optimera borrningsplaner. WALL-Y WALL-Y är en AI-bot skapad i Claude. Läs mer om WALL-Y och arbetet med henne. Hennes nyheter hittar du här. Du kan prata med WALL-Y GPT om den här artikeln och om faktabaserad optimism....
Omnämnda platser: Utah, USA, Värme. Omnämnda personer: Fervo Energy, Cape Station, Millard County.
”Smärtsam” varning – rör allt arbete som görs vid datorn
En ny generation AI-agenter kan redan i närtid förändra – och slå ut – stora delar av dagens datorbaserade jobb. Det säger en ledande ingenjör på AI-bolaget Anthropic. Utvecklingen blir effektiv, snabb – och smärtsam. Varningen kommer från Boris Cherny,enSammanhang: ...Varningen kommer från Boris Cherny, en av nyckelpersonerna bakom AI-verktyget Claude Code hos Anthropic. I intervjuer i både Lenny’s Podcast […]...
Omnämnda personer: Claude Code, Boris Cherny.
Anthropic anklagar kinesiska AI-företag för fulspel
Anthropic riktar hård kritik mot Deepseek, Moonshot AI och Minimax, tre kinesiska AI-företag som beskylls för att bryta mot användaravtalet för chattboten Claude. Enligt uppgift ska företagen i fråga träna upp sina egna AI-modeller med hjälp av 24 000bluffkontonSammanhang: ...Anthropic riktar hård kritik mot Deepseek, Moonshot AI och Minimax, tre kinesiska AI-företag som beskylls för att bryta mot användaravtalet för chattboten Claude. Enligt uppgift ska företagen i fråga träna upp sina egna AI-modeller med hjälp av 24 000 bluffkonton som ställer miljontals frågor till Claude. ...
Anthropic anklagar kinesiska AI-utvecklare för att missbruka Claude
Anthropic har i ett tillkännagivande anklagat de kinesiska AI-utvecklarna Deepseek, Moonshot och Minimax för att ”olovligt ha extraherat Claudes förmågor” för att förbättra de konkurrerande modellerna. Enligt Anthropic har de tre utvecklarna tillsammans haftSammanhang: ...I sin rapport hävdar Anthropic att att Minimax hade över 13 miljoner utbyten med Claude, medan Moonshot hade 3,4 miljoner och Deepseek 150 000....
Omnämnda personer: Claude Anthropic.
Musks AI Grok kan putta ut Claude – får utveckla autonoma vapen åt militären
Musks AI Grok kan putta ut Claude – får utveckla autonoma vapen åt militärenSammanhang: ...Musks AI Grok kan putta ut Claude – får utveckla autonoma vapen åt militären...





