OpenAI fordern Regulierung: Ist KI so gefährlich wie die Atombombe?

Der amerikanische Atomphysiker J. Robert Oppenheimer neben einer Fotografie der Atombombenexplosion über Hiroshima.

Die Chefs von OpenAI fürchten „existenzielle Risiken“ für die Menschheit – und fordern ein KI-Kontrollgremium nach dem Vorbild der Internationalen Atomenergiebehörde.

Quelle: FAZ
Diese Beiträge könnten Sie auch interessieren …