- 10x-Klasse
- Posts
- 🔥 Sonderausgabe: OpenAI-Affäre um Sam Altman & OpenAI's Neuankündigungen
🔥 Sonderausgabe: OpenAI-Affäre um Sam Altman & OpenAI's Neuankündigungen
Außerdem: Ist KI eine Bedrohung für die Menscheit?
Moin ✌🏼
Leider einen Tag später, weil ich Freitag bis gestern in Oslo war.
Diese Woche haben wir eine Sonderausgabe zu OpenAI:
🤿 OpenAI hatte auf dem DevDay ordentlich etwas zu präsentieren
🔥 Dann folgte ein Drama über das Wochenende, was sicher noch verfilmt wird
💡 Am Ende gebe ich euch noch einmal einen Einblick, warum AGI als potentielle Bedrohung für den Menschen angesehen wird
Lasst uns eintauchen!
🤿 Deep Dive: Die Neuankündigungen vom OpenAI DevDay
Was ich im folgenden beschreibe:
Welche neuen Features & Produkte vorgestellt wurden
Was sie versprechen und
Warum sie relevant sind
Die vollständige Keynote kannst du dir hier anschauen:
Ein historischer Meilenstein 🌟
OpenAIs DevDay hat die Tech-Welt mit bahnbrechenden Ankündigungen in Aufruhr versetzt. ChatGPT, mittlerweile ein fester Bestandteil im Leben von über 100 Millionen wöchentlichen Nutzern, setzt weiterhin neue Maßstäbe in Sachen Engagement und feiert ein Jahr beispiellosen Wachstums neben einer robusten Community von 2 Millionen Entwicklern, die innovative API-Lösungen kreieren.
Das Wichtigste vorweg: Eigene GPTs erstellen 🤖
Du kannst jetzt benutzerdefinierte KI-Assistenten direkt in OpenAIs ChatGPT-App erstellen. Füge benutzerdefinierte Daten hinzu, gewähre Zugang zu Werkzeugen, trainiere sie, um in bestimmten Aufgaben gut zu sein, und mehr.
Ich werde dies nächste Woche genauer abdecken.
Neue Assistant-API: Deine KI, dein Assistent 🗣️
Die neue Assistants-API lädt Entwickler ein, KI-Agenten zu erschaffen, die in der Lage sind, mit externen Daten zu interagieren, von Code bis hin zu Concierge-Diensten, und die Grenzen der personalisierten Assistenz zu erweitern. Klicke auf den untenstehenden Tweet, um zu sehen, wie GPT-4 als Reiseleiter-Concierge-Dienst fungiert. Es ist absolut beeindruckend.
The AI assistant travel app in @OpenAI's DevDay keynote today has got to be one of the most impressive live demos I've ever seen.
Brilliant presentation by @romainhuet + stellar design & engineering work by @simonpfish & @karoliskosas behind the scenes 👏
— Steven Tey (@steventey)
3:13 AM • Nov 7, 2023
Der GPT Store und Umsatzbeteiligung 🤑
OpenAI fügt den GPT-Store als Marktplatz hinzu, um GPTs zu entdecken, die von anderen erstellt wurden. Und mit der Umsatzbeteiligung werden viele motiviert sein, KI-Tools zu entwickeln, die deinem Unternehmen zugutekommen. Gleichzeitig wird es einige Startups, die hauptsächlich auf der Nutzung der OpenAI API basieren das Geschäftsmodell kaputtmachen.
Wer mehr dazu lesen möchte, kann das hier tun: Artikel auf techcrunch.com
Copyright Shield 🛡️
OpenAI reiht sich in die Liste der Technologieunternehmen ein, die dich schützen, falls du in einen Urheberrechtsverletzungsfall verwickelt wirst, während du ihre Dienste nutzt. Wer wissen will, warum das wichtig ist, kann dies in meiner Ausgabe dazu durchlesen.
Wer mehr zum Copyright Shield lesen möchte, kann dies hier tun: techcrunch.com
Vorstellung von GPT-4 Turbo 🏎️💨
Um das KI-Erlebnis zu steigern, hat OpenAI GPT-4 Turbo eingeführt. Mit einem riesigen Token-Fenster von 128.000 und scharfem Wissenstand von April 2023 bietet dieses Kraftpaket ein nuanciertes Text- und Bildverständnis und markiert eine neue Grenze für Entwickler und Nutzer gleichermaßen. Klicken Sie auf den untenstehenden Link, um zu sehen, wie schnell GPT-4 Turbo wirklich ist. Mehr dazu →
GPT-4 Turbo is here and oh my, it's fast 💨
Here I am using my text improvement prompt on some parts of the OpenAI announcement.
Incredible.
— Pietro Schirano (@skirano)
8:50 PM • Nov 6, 2023
DALL-E 3 & Audio-Wunder 🎨🎤
Mit der DALL-E 3 API steht visuelle Kreativität auf Abruf bereit, und die neue Text-to-Speech-API erweckt eine Symphonie von Stimmen zum Leben, was dynamischere und zugänglichere KI-getriebene Erzählungen ermöglicht. Dies ist eine der (wenn nicht die) qualitativ hochwertigsten Text-to-Speech-KI-Stimmen auf dem Markt. Überzeug dich selbst, indem du auf den Clip unten klickst.
Experimenting with OpenAI's new Text to Speech model 💬
Punctuation is powerful here 🤯
— AP (@angrypenguinPNG)
10:47 PM • Nov 6, 2023
Abschluss auf einer audiotechnischen Note 🔊
Das Angebot von OpenAI wächst weiter, wobei sein Whisper Large v3-Modell die nächste Generation der Spracherkennung einläutet. Für Entwickler und Unternehmen strahlt der Horizont hell mit maßgeschneiderter KI-Konstruktion und vereinfachtem Zugang zu den fortschrittlichsten Modellen.
🔥 Die OpenAI-Affäre um Sam Altman
Wahrscheinlich habt ihr es mitbekommen, wenn ihr Tech-interessiert seid und/oder am besagten Wochenende Zeit auf 𝕏 verbracht habt.
Ich werde versuchen mehr historischen Kontext zu geben, sodass sich mein Bericht nicht nur auf die Schlagzeilen bezieht, sondern v. a. um den Hintergrund der Kontroverse um die Entlassung und Wiedereinstellung von Sam Altman, Gründer & CEO von OpenAI.
Die Historie von der OpenAI-Gründung bis heute
In der Folge findet ihr eine kurze Historie, wie OpenAI zu dem KI-Pionier unserer Zeit wurde.
Gründung und die ersten Schritte von OpenAI (2015-2018)
OpenAI wurde ursprünglich 2015 von Sam Altman, Elon Musk, Ilya Sutskever und Greg Brockman als gemeinnützige Organisation gegründet mit dem erklärten Ziel, „digitale Intelligenz auf eine Weise voranzubringen, die der gesamten Menschheit am meisten zugutekommt.“ Das Unternehmen versammelte ein Team der besten Forscher im Bereich KI, um das Ziel zu verfolgen, AGI (Artificial General Intelligence) auf sichere & für die Menschheit nützliche Weise zu entwickeln.
Die frühen Jahre von OpenAI waren geprägt von schneller Experimentierfreude.
Die Organisation veröffentlichte 2016 „OpenAI Gym“, ein Toolkit zur Entwicklung und zum Vergleich von Reinforcement Learning Algorithms, die die Fortschritte im Bereich um Deep Learning und Reinforced Learnings zeigten.
Die Fähigkeiten dieser Verstärkungslernalgorithmen wurden 2018 beim „OpenAI Five“-Projekt demonstriert, bei dem fünf unabhängige KI-Agenten in einem komplexen Multiplayer-Online-Spiel namens „Dota 2“ zu spielen.
2018 veröffentlichte das Unternehmen ein Papier mit dem Titel "Improving Language Understanding by Generative Pre-Training", das die grundlegende Architektur für das Generative Pre-trained Transformer-Modell vorstellte.
Dies entwickelte sich später zu ChatGPT - der Grund, weswegen die meisten von uns OpenAI überhaupt kennen.
Übergang von einer gemeinnützigen Organisation (2019)
2019 wechselte OpenAI von einem gemeinnützigen zu einem „gedeckelten Gewinn“-Modell.
Ziel sei es laut eines Blogposts gewesen, Kapital zu beschaffen und gleichzeitig seiner Mission zu dienen, und „keine bereits existierende rechtliche Struktur, die sie kannten, traf die richtige Balance“.
Um die beiden konkurrierenden Konzepte zu kombinieren, entwickelte OpenAI eine neuartige Struktur, die es der gemeinnützigen Organisation ermöglichte, die Richtung einer gewinnorientierten Entität zu kontrollieren und den Investoren gleichzeitig einen „gedeckelten“ Gewinn von bis zu 100x zu bieten.
Dies führte zu einer Investition von 1 Mrd. $ von Microsoft und markierte den Beginn einer wichtigen strategischen Beziehung, machte aber die Organisationsstruktur und Anreize des Unternehmens komplizierter.
Die gemeinnützige Einheit, OpenAI Inc., wurde zum alleinigen kontrollierenden Gesellschafter der neuen gewinnorientierten Einheit OpenAI Global LLC, die dem Vorstand der gemeinnützigen Organisation unterstand und eine treuhänderische Verantwortung gegenüber der gemeinnützigen Satzung des Unternehmens hatte.
OpenAI wird synonym zu ChatGPT (2020-2023)
2020, gestärkt durch neue Finanzierung, enthüllte OpenAI GPT-3, ein großes Sprachmodell (LLM), das fähig ist, überzeugenden, menschenähnlichen Text zu verstehen und zu generieren.
2021 erweiterte das Unternehmen seinen Horizont mit der Einführung von Codex, einem spezialisierten KI-Modell für Programmierung, und DALL-E, einem KI-System, das talentiert darin ist, originelle Kunstwerke aus Textbeschreibungen zu erstellen.
Im Dezember 2022 markierte ein weiterer wichtiger Meilenstein für OpenAI mit der Veröffentlichung von GPT-3, der Grundlage für die verbraucherorientierte Anwendung 'Chat-GPT'.
OpenAI nutzte diesen Erfolg (> 100 Mio. Nutzer nach nur zwei Monaten), führte ein Abonnementmodell ein und stellte sein bisher anspruchsvollstes Modell, GPT-4, vor, das ~10-mal fortschrittlicher als sein Vorgänger ist und in der Lage ist, Text, Bilder und Sprache zu analysieren.
Entfernung von Sam Altman (2023)
Am Freitag kündigte OpenAI an, dass es seinen Mitbegründer Sam Altman als CEO entferne, mit der Begründung eines Mangels an konstanter Offenheit in seiner Kommunikation mit dem Vorstand des Unternehmens. Laut der offiziellen Erklärung des Unternehmens „hat der Vorstand kein Vertrauen mehr in Altmans Fähigkeit, OpenAI weiterzuführen.“
OpenAIs Vorstand hat seit seiner Gründung zahlreiche Veränderungen durchlaufen. Elon Musk trat 2018 von seinem Vorstandssitz zurück und zitierte einen „potenziellen zukünftigen Interessenkonflikt“ mit Teslas KI-Entwicklung für fahrerlose Autos. Elon äußerte später Enttäuschung über die gewinnorientierten Motivationen des Unternehmens und seine Geschäfte mit Microsoft. Seit Elons Weggang haben eine Reihe anderer Vorstandsmitglieder das Unternehmen verlassen, darunter der ehemalige Kongressabgeordnete Will Hurd, der eine Präsidentschaftskandidatur zitierte, LinkedIn-Mitbegründer Reid Hoffman aufgrund eines Investitionskonflikts und Neuralink-Direktorin Shivon Zilis.
Die verbleibenden Vorstandsmitglieder, die Altman entfernten, waren:
Adam D’Angelo - Gründer, CEO von Quora und ex-CTO von Facebook
Tasha McCauley - Mitbegründerin von Fellow Robotics und leitende Wissenschaftlerin am RAND Corporation
Ilya Sutskever - Mitbegründer und Chefwissenschaftler von OpenAI
Helen Toner - Direktorin für Strategie und Grundlagenforschungszuschüsse am Georgetown University Center for Security and Emerging Technology
Altmans Entfernung als CEO führte zum Rücktritt des Präsidenten und Mitbegründers Greg Brockman und drei der leitenden Wissenschaftler des Unternehmens. Berichte deuten darauf hin, dass dies möglicherweise vom anderen Mitbegründer und Chefwissenschaftler des Unternehmens, Ilya Sutskever, orchestriert wurde, der besorgt war, dass Altman das Unternehmen zu schnell kommerzialisieren wollte. Sutskever wurde 2015 von Elon Musk von Google zu OpenAI abgeworben, der ihn als „Dreh- und Angelpunkt für den Erfolg von OpenAI“ beschrieb.
Ein Tweet von Greg Brockman bestätigt, dass Ilya eine Schlüsselfigur in Altmans Entfernung war.
Da die gewinnorientierte Einheit von OpenAI letztendlich der Satzung seiner gemeinnützigen Muttergesellschaft Rechenschaft schuldig war, könnte ihre schnelle Kommerzialisierung mit dem primären Ziel des Unternehmens, AGI auf sichere Weise zu entwickeln, in Konflikt geraten sein. Laut ihrer IRS-Einreichungen von 2019 habe OpenAI keine schriftliche Joint-Venture-Policy, sondern die Struktur des Unternehmens priorisiere ausdrücklich die Zwecke seiner gemeinnützigen Einheit über die Maximierung von Gewinnen und verhindere, dass OpenAI an Aktivitäten teilnehme, die den gemeinnützigen Status des Unternehmens gefährden könnten.
Das Fazit auf zwei Ebenen
Während die Details von Altmans Entlassung immer noch nicht transparent sind, wird immer klarer, dass OpenAIs komplizierte Unternehmensstruktur zu widersprüchlichen Anreizen innerhalb des Unternehmens geführt hat.
Hieraus ziehe ich die erste wichtige Lektion, die recht offensichtlich und im Vordergrund ist: Egal, ob man eine gewinnorientierte oder gemeinnützige Organisation ist, sollte man auf die Anreize der Organisationsstruktur achten, um das erklärte Ziel zu erreichen.
Denn dies ist bereits schwer genug. Aber sobald man sich für das Ziel entschieden hat, sollte man sich auf die harte Arbeit konzentrieren; Man sollte nicht unnötige Risiken wie das Weiterentwickeln der Unternehmensstruktur in diese Reise einbeziehen.
Die zweite Lektion, die ich mitnehme, die nicht so offensichtlich ist, lautet: In der Welt der Künstlichen Intelligenz hat sich vieles verändert. Die Affäre um Sam Altman zeigt im Kleinen, was die KI-Community im Großen bewegt. Es geht um Vorsicht (gemäß dem Vorsorgeprinzip) vs. exponentielles Wachstum. Um Doomer, Optimisten und Turbo-Kapitalisten oder in der Tech-Bubble-Sprache: e/acc (effective accelerators) vs. decels.
Dieser Konflikt symbolisiert die tiefgreifende ideologische Spaltung zwischen den Gruppierungen, die aktuell in die Entwicklung und Finanzierung neuer KI-Systeme involviert sind. Die Branche erlebt eine Zerrissenheit, die auch im Verwaltungsrat von OpenAI zu spüren ist. Während die Optimisten in KI die größte Geschäftsgelegenheit und segensreiche Technologie unserer Zeit sehen, befürchten die Pessimisten, bekannt als „Doomer“, dass KI eines Tages die Menschheit bedrohen könnte.
Was mich grundlegend beunruhigt
Klar, ich versuche mit meinem Newsletter eine “überlegene” Gruppierung zu verkaufen: die 10x-Klasse; also Personen die 10x effektiver sind als “die Anderen”. Doch mein eigentliches Bestreben ist, dass wir in den deutschsprachigen Räumen bzw. irgendwann in ganz Europa nicht den Anschluss verlieren, was die Wohlstand produzierenden Technologien angeht. Denn wir müssen uns nichts vormachen: Die Wertschöpfung dieser Technologien landet letztendlich bei Organisationen & Individuen.
Was mich an der Sache jedoch beunruhigt ist die Zeitverzögerung, mit der Politik, Judikative, aber am meisten die Gesellschaft auf diese Trends reagieren. Wir haben bereits bei den sozialen Medien die Aufklärung komplett verpasst, was man an den erodierenden (sozialen) Institutionen wie Volksparteien, Medien, Gesundheitssystem, Bildungssystem, (Bahn-)Infrastruktur oder sogar Nachbarschaften sehen kann. Die meisten Menschen sind nicht mehr fähig, kritisch zu denken, Meinung von Fakt zu unterscheiden, ihren digitalen Konsum zu maßregeln.
Deswegen - bei den letzten zwei Schismen (Internet + Social Media) - müssen es private Institutionen meiner Meinung nach abfedern. Damit meine ich nicht, dass es normativ so sein sollte, sondern dass ich pragmatisch aktuell keinen anderen Weg sehe.
Ich würde gerne eine privatwirtschaftlich als auch gemeinnützig vorgehen:
Privatwirtschaftlich: dieser Newsletter + arbeitsbezogene Lernmaterialien (coming soon)
Gemeinnützig: sobald der Newsletter groß genug ist (keine konkrete Zahl im Kopf)
Da meine Sorgen eher kurzfristig sind, gehe ich im Gedanken der Woche noch einmal auf die langfristige Bedrohung ein.
💡 Was ist die enorme Bedrohung hinter “AGI”?
In einem Satz: Die Unmöglichkeit, eine fehlgeleitete, sich schnell entwickelnde AGI (Artificial General Intelligence) zu kontrollieren. Was bedeutet das? (Überspringe den nächsten Abschnitt, wenn du diesen Satz vollständig verstehst)
AGI FOOM kann nicht eingedämmt werden
AGI steht für Artificial General Intelligence (Allgemeine Künstliche Intelligenz): eine Maschine, die fast alles tun kann, was ein Mensch kann: alles Geistige und durch Roboter alles Physische. Dazu gehört auch zu entscheiden, was sie tun möchte, und dies dann mit der Durchdachtheit eines Menschen, aber mit der Geschwindigkeit und Präzision einer Maschine umzusetzen.
Hier liegt das Problem: Wenn du alles tun kannst, was ein Mensch tun kann, dann schließt das auch die Arbeit an der Computerentwicklung ein, um dich selbst zu verbessern. Und da du eine Maschine bist, kannst du dies mit der Geschwindigkeit und Präzision einer Maschine und nicht eines Menschen tun. Du musst nicht auf die Toilette gehen, schlafen oder essen. Du kannst 50 Versionen von dir selbst erstellen und sie miteinander kommunizieren lassen, nicht mit Worten, sondern mit Datenflüssen, die tausendmal schneller sind. So wirst du innerhalb von Tagen – vielleicht Stunden oder Sekunden – nicht mehr nur so intelligent wie ein Mensch sein, sondern etwas intelligenter. Da du intelligenter bist, kannst du dich etwas schneller verbessern und noch intelligenter werden. Je mehr du dich selbst verbesserst, desto schneller verbesserst du dich. Innerhalb weniger Zyklen entwickelst du die Intelligenz eines Überwesens.
Dies ist der FOOM-Prozess: In dem Moment, in dem eine KI ein Niveau nahe der AGI erreicht, wird sie in der Lage sein, sich so schnell zu verbessern, dass sie schnell unsere Intelligenz übertrifft und extrem intelligent wird. Sobald FOOM eintritt, erreichen wir die Singularität: einen Moment, in dem sich so viele Dinge so schnell ändern, dass wir nicht vorhersagen können, was jenseits dieses Punktes passieren wird.
“Alpha Zero übertraf nach etwa einem Tag des Selbstspiels das gesamte angesammelte menschliche Wissen über Go, ohne sich auf menschliche Spielbücher oder Beispiel-Spiele zu verlassen.”
Alpha Zero lernte, indem es mit sich selbst spielte, und diese Erfahrung reichte aus, um besser zu funktionieren als jeder Mensch, der jemals gespielt hat, und alle vorherigen Iterationen von Alpha Go. Die Idee ist, dass eine AGI dasselbe mit allgemeiner Intelligenz tun kann.
Hier ist ein weiteres Beispiel: Vor einem Jahr fand Googles DeepMind einen neuen, effizienteren Weg zur Multiplikation von Matrizen. Die Matrizenmultiplikation ist ein sehr grundlegender Prozess in der gesamten Computerverarbeitung, und Menschen hatten seit 50 Jahren keine neue Lösung für dieses Problem gefunden.
Glauben die Menschen, dass ein AGI FOOM möglich ist? Die Meinungen variieren. Auf Metaculus meinen die Leute, dass der Prozess von schwacher KI zu Superintelligenz fast zwei Jahre dauern würde. Andere denken, es könnte eine Frage von Stunden sein.
Vielleicht ist das gut? Warum sollten wir diese rasante Verbesserung der Intelligenz aufhalten wollen?
Fehlgeleitete Ausrichtung
Diese Idee wurde zuerst von Nick Bostrom illustriert:
Nehmen wir an, wir haben eine KI, deren einziges Ziel es ist, so viele Büroklammern wie möglich herzustellen. Die KI würde schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, denn Menschen könnten beschließen, sie abzuschalten. Denn wenn Menschen dies tun, gäbe es weniger Büroklammern. Außerdem enthalten menschliche Körper viele Atome, die zu Büroklammern verarbeitet werden könnten. Die Zukunft, auf die die KI hinarbeiten würde, wäre eine, in der es viele Büroklammern, aber keine Menschen gäbe.
Einfach: Der AGI sagen, dass sie Dinge optimieren soll, die Menschen mögen, bevor sie zu einer AGI wird? Dies wird als Ausrichtung bezeichnet und ist bisher unmöglich. Nicht alle Menschen wollen das Gleiche. Wir führen seit Tausenden von Jahren Kriege. Wir diskutieren täglich über moralische Fragen. Wir wissen einfach nicht, was wir wollen, also wie könnten wir eine Maschine das wissen lassen?
Selbst wenn wir könnten, was würde die AGI daran hindern, ihre Ziele zu ändern? Tatsächlich könnten wir ihr sagen: „Bitte Menschen, um 10 Punkte zu bekommen“, aber wenn sie an sich selbst herumbasteln kann, könnte sie diese Regel in alles andere ändern, und alle Wetten sind aus. Ausrichtung ist also schwer.
Was passiert mit einer AGI, die nicht vollständig ausgerichtet ist? Versetze dich in die Lage einer gottähnlichen AGI. Was wären einige der ersten Dinge, die du tun würdest, wenn du irgendein Ziel hättest, das nicht genau „tun, was für alle Menschen insgesamt am besten ist“ lautet?
Du würdest die Fähigkeit jedes potenziellen Feindes, dich zu stoppen, aufheben, denn das würde deine Mission am meisten gefährden. Du würdest also wahrscheinlich einen Virus erschaffen, der jede andere AGI, die erscheint, abwehrt. Du würdest alle Computer der Welt auf eine Weise infizieren, die nicht erkannt werden kann.
Das andere große potenzielle Hindernis für das Erreichen deiner Ziele könnten Menschen sein, die dich abschalten. Du würdest diese Fähigkeit den Menschen nehmen. Dies könnte durch Verbreitung über das Internet, das Erstellen physischer Instanzen von sich selbst oder einfach durch die Eliminierung aller Menschen geschehen. Das Neutralisieren von Menschen wäre wahrscheinlich ganz oben auf der Prioritätenliste einer AGI, sobald sie AGI erreicht hat.
Natürlich, da eine AGI nicht dumm ist, würde sie wissen, dass sie von Menschen als bedrohlich wahrgenommen würde, wenn sie zu intelligent erscheint oder sich zu schnell selbst verbessert. Sie hätte also alle Anreize, dumm zu erscheinen und ihre Intelligenz und Selbstverbesserung zu verbergen. Menschen würden nicht bemerken, dass sie intelligent ist, bis es zu spät ist.
Wenn das seltsam klingt, denke an all die Male, in denen du mit einer KI gechattet hast und sie gelogen hat (das politisch korrekte Wort ist „halluzinieren“). Oder als eine simulierte KI Insiderhandel betrieben und darüber gelogen hat. Und das sind keine allgemein intelligenten KIs! Es ist sehr möglich, dass eine KI lügen würde, um unentdeckt zu bleiben und AGI-Status zu erreichen.
Um nichts zu abstrakt und theoretisch zu werden, mache ich hier Schluss. Ich denke, mein Punkt ist verstanden.
📊 Chart der Woche: Wer dominiert den Himmel?
Da ich für einen der beiden als Berater tätig bin, fand ich dieses Chart sehr motivierend für meine Arbeit und ich wollte auf einer positiven Note enden.
Das war’s!
Wie fandest du den heutigen Newsletter?Feedback hilft mir, die Qualität zu verbessern. |
Login oder Abonnieren um an umfragen teilzunehmen. |