Wie gefährlich ist KI wirklich? 🚨 Future of Life & Elon Musk fordern in offenem Brief KI-Pause ⛔
Spätestens seit dem Launch von ChatGPT im November ist das Rennen um die stärkste KI in vollem Gange. Große Player wie Google, Microsoft, Baidu und OpenAI arbeiten mit Hochdruck an neuen KI-Produkten, um sich hier führend zu positionieren. Das ist einerseits sehr eindrucksvoll, weckt bei vielen Köpfen aber auch Bedenken:
Das Future Of Life Institute fordert jetzt in einem offenen Brief, das Training von KI-Systemen, die über die Fähigkeiten von GPT4 hinausgehen, für 6 Monate zu pausieren. So soll sichergestellt werden, dass wir in diesem Wettrennen um die stärkste KI keine Black-Box-Modelle erschaffen, die sich später nicht mehr einfangen lassen.
Konkret besteht die Sorge, dass eine sogenannte übermächtige (singuläre) AGI (Artificial General Intelligence), die sich selbst weiterentwickelt und deutlich intelligenter ist als wir, eine Gefahr für die Menschheit werden könnte. 🚨
Elon Musk zählt zu den Unterstützern des Briefes und äußerte schon mehrmals öffentlich seine Bedenken zu den Risiken von Super-KIs. Andere bekannte Namen sind z.B. Apple-Co-Founder Steve Wozniak und Max Tegmark vom MIT Center for Artificial Intelligence & Fundamental Interactions.
Die sechsmonatige Pause sollten Unternehmen, Experten und Entscheidungsträger dann nutzen, um die Herausforderungen von KIs für die Gesellschaft zu diskutieren und entsprechende Sicherheitssysteme und Regulierungen zu implementieren.
Mal abgesehen davon, dass wir von einer General AI noch sehr weit entfernt sind und heutige KI-Systeme Intelligenz nur simulieren – imho lässt sich so eine Pause nicht staatlich durchsetzen, insbesondere global.
Aber vielleicht hilft der Brief dabei, einen wirklich wichtigen Diskurs zu starten:
—-  Wie können wir KI-Entwicklung sinnvoll regulieren?  —-