Letzte Woche hat das Future of Life Institut eine sechsmonatige Pause bei der Entwicklung von KI-Modellen gefordert, die leistungsfähiger sind als GPT4. Zu den Unterstützern zählt neben vielen weiteren Experten auch Elon Musk. So soll verhindert werden, dass in dem Wettrennen um die stärkste KI zwischen den großen Playern – darunter Microsoft, Google, OpenAI und Baidu – sogenannte Black-Box-Modelle entstehen, die sich später nicht mehr kontrollieren lassen.

Aber ist KI überhaupt noch zu stoppen? Und wovor sorgen sich Technologie-Enthusiasten wie Elon Musk, wenn es um die Zukunft von KI geht?


mit Surfn erstellt - getsurfn.com

Die Angst vor der AGI - Artifical General Intelligence

Konkret besteht bei einigen Industrieköpfen die Sorge vor einer übermächtigen KI, auch Artificial General Intelligence genannt, die sich selbst weiterentwickelt und deutlich intelligenter ist als der Mensch. Eine solche KI könnte potenziell eine Gefahr für die Menschheit darstellen, zum Beispiel, wenn sie den Mensch als Fehlerquelle identifiziert und auslöschen möchte, um den Planeten zu schützen. Denn wenn wir ehrlich sind, ist der Mensch die Hauptursache für den Klimawandel, die größte Gefahr des Planeten. In 10xDNA habe ich die Singularität in Ära 3 des Baukastens der Zukunft (ab 2030) eingeordnet und mögliche Szenarien geschildert.

Aktuell gibt es noch keinerlei Vorstellungen davon, wie eine solche AGI – auch starke oder singuläre KI – konkret aussehen könnte. Bei den Large Language Models, auf denen Chatbots wie ChatGPT und Bard basieren, handelt es sich um schwache KIs, die auf konkrete Anwendungsfälle spezialisiert sind; in diesem Fall Sprache. ChatGPT ist nicht einmal in der Lage, eine einfache mathematische Aufgabe zu lösen:

Der Taschenrechner meines iPhones, basierend auf einer Technologie aus dem Jahr 1967, kommt auf eine andere Antwort: 8.104.320.

In meinem letzten Newsletter habe ich die Technologie hinter ChatGPT und Co bereits kurz angerissen – Sprachmodelle imitieren Intelligenz, haben aber im Grunde kein Verständnis von dem, was sie als Output generieren und auch keine eigene Meinung. Selbst, wenn sie richtig liegen, lassen sie sich korrigieren, ohne den Input zu hinterfragen:

Eine starke KI hingegen wäre in der Lage, sich an die jeweilige Aufgabe anzupassen und über ihren ursprünglichen Anwendungsbereich hinaus zu generalisieren. Eine solche AGI hätte ein umfangreiches Verständnis über sämtliche Bereiche, wäre in der Lage, jede intellektuelle Aufgabe zu erfüllen, die der Mensch erfüllen kann, und sie könnte sich selbst autonom weiterentwickeln – ab diesem Punkt spricht man von Singularität: Die KI wächst über den Mensch hinaus, braucht keinen menschlichen Input mehr, um sich weiterzuentwickeln und wird letztendlich um ein Vielfaches intelligenter als der Mensch – in allen Bereichen.

Dass wir an diesen Punkt kommen werden, ist in meinen Augen unausweichlich. Schon heute ist die KI in vielen Bereichen besser als der Mensch, und wir stehen gerade erst am Anfang der Entwicklung. Auch staatliche Anordnungen werden die KI-Entwicklungen nicht stoppen können.

Was die Unterstützer des offenen Briefes fordern, zu denen neben Elon Musk auch Apple-Co-Founder Steve Wozniak und Max Tegmark vom MIT Center for Artificial Intelligence & Fundamental Interactions gehören, ist eine Pause. Diese Pause sollen die Unternehmen, Experten und Entscheidungsträger nutzen, um sich auf die Herausforderungen von KIs für unsere Gesellschaft und die Implementierung entsprechender Sicherheitssysteme und Regulierungen zu konzentrieren.

AI Alignment

“Ich habe keinen Zweifel, dass KI die bei weitem größte Erfindung der Menschheit ist. Es liegt an uns, ob es auch die letzte sein wird, und wir letztendlich also die Kontrolle verlieren, oder die beste, und wir ihre Chancen nutzen.”

Diese Zeilen schrieb ich 2018 in meinem Buch Startup-DNA, in dem ich der Künstlichen Intelligenz bereits ein eigenes Kapitel widmete. Auch in 10xDNA appelliere ich an Forscher und Politiker, das Thema KI-Regulierung auf die Agenda zu setzen. Wir blicken in eine Zukunft, in der KI unweigerlich intelligenter sein wird als wir. Was jedoch noch unklar ist: Welche Interessen wird eine solche Super-Intelligenz vertreten?

Um dies zu steuern, gibt es innerhalb der KI-Forschung einen Bereich namens AI Alignment. Hier beschäftigen sich Forscher mit der Frage, wie wir menschliche Werte und Absichten so tief in das Grundgerüst bestehender und zukünftiger KI-Systeme verankern, dass auch eine sich selbst weiterentwickelnde AGI immer im Sinne der Menschheit handeln.

Allein die Festlegung dieser Werte stellt bereits eine Herausforderung dar, da sie oft sehr komplex und teilweise kulturspezifisch sind. Weitere Anforderungen, mit denen sich AI-Alignment-Forscher beschäftigen, sind:

  • Eine **robuste KI **zu erschaffen, die sich nicht von ungewohnten Umständen, Menschen oder anderen KIs beeinflussen lässt.

  • Gleichzeitig aber auch eine KI, die offen für Feedback ist, sich von menschlichen Benutzern korrigieren lässt und flexibel auf Veränderungen in ihrer Umgebung und neue Daten reagiert.

  • Langfristig stabile und wünschenswerte Ergebnisse über mehrere Entwicklungsgenerationen hinweg – auch dann, wenn KI selbst die Entwicklung weiterer KI-Systeme übernimmt.

Organisationen wie OpenAI, DeepMind und das Future of Humanity Institute befassen sich bereits seit Jahren mit der Frage nach AI Alignment – bislang jedoch ohne konkrete Ergebnisse. OpenAI plant laut seiner Website, ein “ausreichend angepasstes KI-System” zu entwickeln, das dann alle AI-Alignment-Probleme lösen soll. Dem AI-Alignment-Forscher und Schriftsteller Eliezer Yudkowsky geht dies nicht weit genug, wie er letzte Woche in einem Gastartikel in der Time sehr deutlich machte. Zuvor sprach er im Bankless Podcast, den ich euch in meinem letzten Newsletter empfohlen habe, über die Risiken von KI. Yudkowsky ist überzeugt, dass eine AGI die Menschheit auslöschen könnte und dass eine sechsmonatige Pause nicht genüge.

Ich bin kein Freund von Panikmache und grundsätzlich begrüße ich den technologischen Fortschritt. Aber in diesem Fall bin ich froh, dass das Thema KI-Regulierung in den letzten Wochen so viel Aufmerksamkeit bekommen hat und sich viele kluge Köpfe jetzt intensiv damit beschäftigen. Auch wenn ich nicht davon ausgehe, dass wir in den nächsten Jahren eine AGI sehen werden, sollten wir hier dringend in den Diskurs gehen und global die richtigen KI-Sicherheitsprozesse implementieren. 🙏

Italien verbannt ChatGPT

Während man in den USA über eine Pause in der KI-Entwicklung debattiert, verbannt mit Italien das erste europäische Land ChatGPT aus Datenschutzgründen. Den wahren Grund kennen wir alle ;-)

Deepfakes

Auch in Deutschland wurde hierüber am Montag diskutiert. Ich halte diese Herangehensweise jedoch für den falschen Weg.

Wir werden die KI-Entwicklung nicht aufhalten und dank unserer strengen Datenschutzverordnungen auch nicht aus der ersten Reihe heraus mitgestalten können. Aber es ist in meinen Augen essenziell, dass wir mit unseren europäischen Werten die KI-Entwicklung mitgestalten – das geht nicht, wenn wir sie aus unseren Ländern verbannen.

Hinzu kommt, dass Unternehmen, die ihre Prozesse nicht mit KI-Modellen effizienter gestalten, zukünftig einen Nachteil haben werden. Wer dennoch nicht auf die großen Player wie OpenAI und Microsoft zurückgreifen will, kann auf Open Source Alternativen zurückgreifen – unser Portfolio-Unternehmen Scanbot verwendet beispielsweise bestehende AI Libraries wie Bloom und entwickelt auch eigene Technologie, zBsp für OCR (Optical Character Recognition). Das Team hat hierzu gerade einen Blogpost geschrieben.

Übrigens: Das sagt ChatGPT zum Italien-Bann:

Lilium und Custom Cells fahren Batteriezellenproduktion hoch

Während die ganze Welt im KI-Fieber ist, arbeitet Lilium weiterhin mit Hochdruck an einer weiteren Zukunftstechnologie: eVTOLs.

Die 2021 angekündigte Partnerschaft mit Custom Cells nimmt jetzt Fahrt auf, nachdem ein unabhängiges Labor zu sehr erfolgreichen Testergebnissen kam: Die für den Lilium Jet entwickelten Prototyp-Batteriezellen von Ionblox haben nach 800 Ladezyklen mit einer Entladetiefe von 100% einen Energierückhalt von 88 %, und damit deutlich über dem Zielwert von 80% 👏

Mehr dazu hier: https://lilium.com/newsroom-detail/lilium-partners-customcells

Lilium plant, noch in diesem Jahr mit der Produktion des Liliumjets zu starten, in der zweiten Jahreshälfte 2024 soll dann der erste bemannte Flug folgen.

“The multi-year development collaboration between Lilium and Customcells has been successful: together we have proven the feasibility of mass production of high-performance lithium-ion batteries for eVTOL jets. Now we are automating our production step by step towards large quantities.“ – Dirk Abendroth, CEO Customcells Group

Wichtig: Dies ist keine Anlageempfehlung. Besonders die Investition in einzelne frühphasige Unternehmen ist sehr riskant.

10xDNA

Wir waren letzte Woche mit einem Teil des 10xDNA Teams auf dem Fonds professionell Kongress in Mannheim und durften viele spannende Gespräche an unserem Stand führen. Wir freuen uns immer über den Austausch mit unseren Anlegern und haben viele, wertvolle Impulse mitgenommen.

Diesen Newsletter schreibe ich übrigens aus Brasilien – meine Frau Nathalie ist hier geboren und wir waren die letzten Tage im Dschungel. Dank unserer Endurosat Satelliten kann ich aber selbst hier effektiv arbeiten ;-)

Buchempfehlungen:

Podcast Tesla Chief Designer Franz von Holzhausen @ The InEVitable

Tesla Chief Designer Franz von Holzhausen war zu Gast bei Motortrend Channel im The inEVitable Podcast und hat über seinen Weg zu Tesla, die Herausforderungen im Design und seinen persönlichen Eureka-Moment gesprochen. Das Gespräch zeigt: Tesla ist keine One-Man-Show. Hier arbeiten viele wirklich kluge Köpfe an einer gemeinsamen Mission: einer nachhaltigen Zukunft.

TV-Serie: The Consultant

“The Consultant” ist eine ungewöhnliche Thriller-Serie auf Amazon Prime. Im Mittelpunkt steht Regus Pattoff, ein mysteriöser Berater, der in einem Gaming-Startup die Kontrolle übernimmt, nachdem der Gründer spektakulär ums Leben gekommen ist. Ein entführter Elefant, ein Skelett aus Gold, böse Anspielungen auf die Arbeitskultur in Tech-Startups und ein genial spielender Christoph Waltz in der Hauptrolle sorgen für gute Unterhaltung - genau das richtige zum Abschalten nicht nur nach der 80-Stunden-Woche.

Tool: Pitch

Pitch ist eine “sexy” Powerpoint/Keynote-Alternative von Christian Reber, die uns viel Zeit spart. Full Disclosure: Wir sind hier mit Freigeist sehr kleiner Shareholder.