
Sign up to save your podcasts
Or


In Folge 133 des KI Gilde Podcasts beleuchten wir den historischen Konflikt zwischen dem KI-Unternehmen Anthropic und dem Pentagon.
Nach einem 200-Millionen-Dollar-Vertrag für hochmoderne KI-Modelle weigerte sich Anthropic, seine Technologie für Massenüberwachung und vollautonome Waffensysteme bedingungslos zur Verfügung zu stellen. Daraufhin stufte der US-Präsident das Unternehmen im Februar 2026 als Sicherheitsrisiko ein und kündigte die Zusammenarbeit.
Während Open AI sofort als neuer Rüstungspartner einspringt, belohnt die Öffentlichkeit Anthropics moralische Standhaftigkeit mit Platz 1 in den Charts und massenhaften Deinstallationen der Konkurrenz-App. Wir diskutieren die entscheidende Frage: Werden die Spielregeln unserer Zukunft von Entwicklern mit Gewissen oder von Regierungen mit Macht geschrieben?
By KI-GildeIn Folge 133 des KI Gilde Podcasts beleuchten wir den historischen Konflikt zwischen dem KI-Unternehmen Anthropic und dem Pentagon.
Nach einem 200-Millionen-Dollar-Vertrag für hochmoderne KI-Modelle weigerte sich Anthropic, seine Technologie für Massenüberwachung und vollautonome Waffensysteme bedingungslos zur Verfügung zu stellen. Daraufhin stufte der US-Präsident das Unternehmen im Februar 2026 als Sicherheitsrisiko ein und kündigte die Zusammenarbeit.
Während Open AI sofort als neuer Rüstungspartner einspringt, belohnt die Öffentlichkeit Anthropics moralische Standhaftigkeit mit Platz 1 in den Charts und massenhaften Deinstallationen der Konkurrenz-App. Wir diskutieren die entscheidende Frage: Werden die Spielregeln unserer Zukunft von Entwicklern mit Gewissen oder von Regierungen mit Macht geschrieben?