• 10x-Klasse
  • Posts
  • KI-Grundlagen 2: Von 0 zum ChatGPT-Profi

KI-Grundlagen 2: Von 0 zum ChatGPT-Profi

Außerdem: KI mit Humor? Grōk, KI-Regulierung und News von Big Tech.

Moin ✌🏼

Puh, Leudde… Diese Woche bin ich richtig spät dran, wa?

Aber da ich mit diesem Newsletter kein Geld verdiene, musste ich am Wochenende für einen US-Klienten technische Probleme bearbeiten. Leider tauchten die Problem bis Montag erneut auf, sodass sich das wie ein roter Faden durch meine Tage zog.

Aber jetzt bin ich wieder da!

Kurz in eigener Sache:

Letztes Mal hatte ich euch ja gefragt, was ihr über potentielle Veränderungen denkt. Hier sind die Ergebnisse vereinfacht dargestellt:

Was haltet ihr von einer Aufwertung? 👔 

🟩🟩🟩🟩🟩🟩 👌🏼 Ganz ehrlich - lass es so, wie es ist. Ich find's super!

🟨🟨🟨⬜️⬜️⬜️ 🤘🏼 Ist eine coole Idee - Layout, Optik & Website können mehr

🟨⬜️⬜️⬜️⬜️⬜️ 💎 Geh' all-in! Der Scheiß hat richtig Potential!

Deswegen lasst mich heute eine weitere Frage stellen:

Möchtest Du lieber eine längere oder zwei kürzere Emails pro Woche erhalten?

Klicke einfach deine Präferenz an & sieh was die Anderen sagen.

Login oder Abonnieren um an umfragen teilzunehmen.

Was wir heute abhandeln:

  • 🤿 Deep Dive: Grundlagen zu ChatGPT

  • 🔭 Zoom: Neuer KI-Assistent vorgestellt

  • 💡 Framework: Wie man Aufgaben an KI delegieren sollte

  • 🚒 News: von Apple, Anthropic, Slack & Japans Regierung

  • 🛠️ Neues Plugin: Endlich ist Canva in ChatGPT verfügbar

OpenAIs Drama um die Dev-Konferenz sowie Sam Altman werde ich nächste Woche abhandeln.

🤿 KI-Grundlagen Teil 2: ChatGPT als universelles Allzweckmittel

Wer Teil 1 der KI-Grundlagen - Abkürzungen und Begrifflichkeiten - verpasst hat, kann ihn sich hier noch einmal nachlesen.

Diese Woche verweise ich auf die Anleitung, wie man mit ChatGPT startet, die ich in der allerersten Episode geschrieben habe:

🔥 State of AI - Was du wissen musst

Hier könnt ihr euch die Slides direkt anschauen: Mehr dazu →

TL;DR: Der Bericht hebt die zunehmende Bedeutung von Sicherheit in der KI-Entwicklung hervor und untersucht, wie KI-Technologien in verschiedenen Bereichen, von der Forschung bis zur Politik, Fortschritte erzielen und sich entwickeln.

Die wichtigsten Punkte:

  • GPT-4 dominiert aktuell in Effizienz und Leistung, was die Stärke von proprietären Architekturen und lernbasierten Modellen unterstreicht.

  • Es gibt Bestrebungen, proprietäre KI-Leistungen durch kleinere Modelle und verbesserte Datensätze zu erreichen oder zu übertreffen.

  • KI-Modelle, insbesondere LLMs und Diffusionsmodelle, erzielen bedeutende Fortschritte in den Lebenswissenschaften.

  • Rechenleistung wird zunehmend wichtiger und wirtschaftlich wertvoller, ähnlich wie Öl, mit Unternehmen wie NVIDIA, die von dieser Entwicklung profitieren.

  • Generative KI-Anwendungen ziehen erhebliche Investitionen an und tragen zur Belebung des VC-Sektors bei.

  • Die Sicherheitsdebatte um KI wird immer mehr zum Mainstream-Thema, was zu Aktionen von Regierungen und Regulierungsbehörden führt.

  • Es gibt Herausforderungen bei der Bewertung von State-of-the-Art-Modellen, insbesondere bei der Robustheit von Standard-LLMs.

Warum das wichtig ist: Der Bericht unterstreicht die Bedeutung von Sicherheit und ethischen Überlegungen in der KI-Entwicklung. Er weist auf die Notwendigkeit hin, sich mit den neuesten technologischen Entwicklungen, insbesondere in Bereichen wie proprietären Architekturen und lernbasierten Modellen, auseinanderzusetzen. Zudem betont der Bericht die Rolle von Rechenleistung als kritischen Faktor für die Weiterentwicklung von KI-Technologien und die zunehmende Wichtigkeit von Investitionen in generative KI-Anwendungen.

🔥 Grōk veröffentlicht - Der etwas andere Chatbot

Leider ist Grōk bisher nur in der USA verfügbar. Ihr könnt euch jedoch hier auf die Warteliste schreiben lassen: Bin dabei!

TL;DR: Grōk setzt sich ab, indem es sofortigen Zugriff auf die aktuellsten Updates auf 𝕏 (Twitter) bietet. Diese Funktion wird voraussichtlich die Bereitstellung von Eilmeldungen mit Präzision und Neutralität neu definieren. Klicken Sie unten, um Elons Tweet zu sehen, der den Unterschied zeigt, den dies machen kann.

Das Wichtigste in Kürze:

  • Grōk wurde in nur zwei Monaten trainiert und soll witzig und unzensiert sein - mit sowohl 'normalen' als auch 'spaßigen' Modi.

  • Der Kern-KI-Motor wird Grok-1 genannt, von dem xAI behauptet, er übertreffe bereits GPT-3.5 bei bestimmten Benchmarks, hinkt derzeit aber hinter GPT-4 hinterher.

  • Grok hat Zugriff auf Echtzeit-Posts auf X, was es ihm ermöglicht, über aktuelle Ereignisse zu sprechen — und wird schließlich allen X Premium+ Abonnenten nach Abschluss der Beta-Tests zur Verfügung gestellt werden.

  • Benutzer können mit mehreren gleichzeitig laufenden Chats multitasken, wobei die Antwortzeiten auf 'Bildschirmaktualisierungs'-Geschwindigkeit sind.

  • API-, Bild- und Spracherkennung sind geplant, mit einer Version von Grok, die auch nativ in Teslas unter Verwendung lokaler Rechenleistung läuft.

Die Implikationen: Grōks rebellischer und unzensierter Ton steht in starkem Kontrast zu den streng, ordinären Antworten von ChatGPT — und sein Zugriff auf den Schatz an Twitter-Daten sollte eine interessante, wenn auch oft laute Wissensbasis bieten. Die Tatsache, dass Grok in etwas mehr als zwei Monaten trainiert wurde, zeigt, dass KI-Modelle immer stärker zur Commodity werden.

🦾 Was denkt ihr über xAI's & Elons Angriff auf ChatGPT?

Stimme unten ab (klicke für Live-Ergebnisse)

Login oder Abonnieren um an umfragen teilzunehmen.

💡 Idee der Woche: Der Anwendungs-Layer von KI (Teil 1/2)

Die Grundlagenmodelle (aktuell auch große Sprachmodelle oder englisch LLMs genannt) sollten als Backends betrachtet werden - von den Anwendern abstrahiert.

Generative KI-Modelle können alle möglichen erstaunlichen Dinge tun. Sie dazu zu bringen, das zu tun, was wir wollen, ist andererseits immer noch recht schwierig - es erfordert Prompt-Engineering und viel Experimentieren - was eine breite Nutzung durch Verbraucher ausschließt.

Heute sollen wir KI-Modelle als allgemeine Chat-Schnittstellen betrachten, die uns als Verbrauchern zur Verfügung gestellt werden.

Wenn wir Hilfe beim Schreiben eines Blogposts wollen, öffnen wir einfach ChatGPT (oder Bard, Claude 2 usw.) und beginnen zu tippen (meistens mit unseren Daumen, da die Mehrheit der modernen Computernutzung jetzt auf Mobilgeräten stattfindet).

"Du bist ein Blogpost-Schreiber mit 40 Jahren Erfahrung im Texten. Bitte schreibe mir einen 500 Wörter langen Blogpost über 'Wie KI die Medizin beeinflussen wird'. Der Ton soll professionell sein. Die Zielgruppe sind Ärzte, die besorgt über Störungen in ihrer Branche sind. Außerdem, unten ist eine Probe meines Schreibstils. Stelle sicher, dass der Blogpost meinem Stil entspricht. — <füge einige hundert Wörter ein, die deinen Schreibstil genau wiedergeben>"

Macht es Sinn, dass Verbraucher lernen, diese Art von Prompts zu erstellen und sie in Chat-Schnittstellen einzugeben oder einzufügen?

Was wäre, wenn:

  • Wir Leute, die sich für die Funktionsweise von KI-Modellen interessieren, nennen wir sie "Prompt-Engineers", einfache, intuitive Anwendungsschnittstellen für User erstellen lassen - wobei die KI-Modelle abstrahiert und die Notwendigkeit für Anwender eliminiert wird, das Prompten zu verstehen.

  • Wir Anwendern beibringen, KI genauso zu nutzen, wie sie Mobiltelefone nutzen - damit gemeint: für was auch immer du machen willst, "dafür gibt es eine App".

Wie würde das aussehen?

Stelle dir ein Tool, eine Integrierte Entwicklungsumgebung (IDE), vor, die es Prompt-Engineers ermöglicht, zweckgebundene, spezialisierte KIs zu erstellen - die User nutzen können, um Dinge zu erledigen.

Ein Prompt-Engineer könnte einen "Personalisierten Blogpost-Generator" bauen - eine KI, die speziell dafür entwickelt wurde, Blogposts für spezifische Zielgruppen zu generieren, wobei die spezifischen, sprachlichen Besonderheiten des Anwenders beachtet werden.

Dazu muss der Prompt-Engineer:

  1. Definieren, welche Informationen vom Benutzer gesammelt werden müssen, um großartige Blogposts zu schreiben.

  2. Schreibstil des Benutzers (sie können Dokumente hochladen, die sie geschrieben haben, oder einen anderen bevorzugten Stil angeben).

  3. Blogpost-Titel/Thema

  4. Zielgruppe

  5. Anzahl der Wörter

  6. Ton (freundlich, professionell, provokativ usw.)

  7. «… jede Anzahl anderer relevanter Benutzereingaben»

  8. Definieren, wie der Blogpost formatiert werden soll.

  9. Den ausgefeilten Prompt erstellen, der die Blogposts generiert.

  10. Das richtige Modell auswählen, um die besten Ergebnisse zu erzielen.

  11. Verschiedene Modellparameter manipulieren, um die Ausgabe zu verfeinern.

  12. Testen und iterieren, bis zur Zufriedenheit.

  13. Den Personalisierten Blogpost-Generator veröffentlichen und für Verbraucher zur Nutzung bereitstellen.

Sobald sie die erforderlichen Schritte verstehen, können Prompt-Engineers in unter 15 Minuten neue KIs erstellen - vielleicht sogar in unter 5 Minuten.

Diese KIs werden als Web-Apps veröffentlicht, erreichbar über eine einzigartige URL oder benutzerdefinierte Domain - was sie leicht sendbar, teilbar, einbettbar usw. macht.

Der Prompt-Engineer kann auch wählen, Verbrauchern eine monatliche Abonnementgebühr für die Nutzung ihrer KI zu berechnen - was einen wiederkehrenden Einkommensstrom schafft.

Teil 2 gibt es nächste Woche, wo ich auf die unterschiedlichen Charakteristiken des Anwendungs-Layers eingehe.

🚨 Was sonst noch wichtig war

🏛️ Bidens AI-Verordnung: Gleichgewicht zwischen Innovation und nationaler Sicherheit

Präsident Biden hat eine Durchführungsverordnung unterzeichnet, die sich mit der Regulierung der künstlichen Intelligenz befasst. Die Anordnung verpflichtet Unternehmen, alle Risiken zu melden, die ihre KI-Systeme bei der Herstellung von Massenvernichtungswaffen oder bei der Erzeugung von Fälschungen darstellen könnten. Biden äußerte sich besorgt über den potenziellen Missbrauch von KI-generierten Audio- und Videodateien, der zur Verbreitung von Desinformationen oder sogar zu nationalen Sicherheitskrisen führen könnte.

🇪🇺 Das KI-Gesetz der EU steckt in der Schwebe | The Verge

Der EU AI Act, der noch diskutiert wird, wird wahrscheinlich nicht vor Dezember verabschiedet. Spanien schlägt vor, regelmäßige Überprüfungen und ein gestuftes Regulierungssystem basierend auf der Nutzerzahl eines Modells einzuführen. Es gab bereits drei Triloge (= Verhandlungsformat, bei dem drei Parteien - das europ. Parlament, der Rat der EU und die europ. Kommission) über den AI Act, und ein weiteres Treffen ist für Dezember geplant, falls keine Einigung erzielt wird. Ein Entwurf des Gesetzes verlangt von Entwicklern, Risiken zu bewerten und Modelle zu testen. Open-Source-Unternehmen fordern, kleinere Unternehmen zu berücksichtigen. Viele sehen den EU AI Act als mögliches Vorbild für Regulierungen in der generativen KI.

📱 Apple's AI Leap: New iOS Features and Generative Tech

Auf Apples Telefonkonferenz zu den Q4-Ergebnissen sprach CEO Tim Cook die Wahrnehmung an, dass Apple in Sachen KI hinterherhinkt, und verwies auf jüngste Innovationen wie die persönliche Stimme und Live-Voicemail in iOS 17, die KI und maschinelles Lernen nutzen. Er bestätigte die Entwicklung von generativen KI-Technologien durch Apple, hielt sich jedoch mit Details zurück. Angesichts der wachsenden Konkurrenz durch KI-Tools wie OpenAIs ChatGPT erhöht Apple Berichten zufolge sein KI-Budget und konzentriert sich auf Fortschritte, die Siri und andere Anwendungen mit neuen KI-gesteuerten Funktionen verbessern könnten.

📽️ Youtube experimentiert mit neuen KI-Integrationen | via Google

Kurz und knapp: YouTube testet zwei neue KI-Tools – einen Chatbot, der Videos zusammenfassen und Fragen beantworten kann, sowie eine neue KI-Funktion zur Kategorisierung von Videokommentaren nach Themen.

Warum es wichtig ist: Die neuen Funktionen auf YouTube zeigen Googles ständiges Bestreben, KI einzusetzen (während wir geduldig auf Gemini warten) – und helfen sowohl Fans als auch Erstellern, das Rauschen der ständigen Content-Beschallung zu durchdringen, um ein besseres Nutzererlebnis zu haben. Wird eines Tages jeder Inhalt im Internet seinen eigenen Chatbot haben?

🚒 Schnellfeuerwerk an News:

  • Olympus: Amazon hat Berichten zufolge ein Team, das sich der Entwicklung eines KI-Modells widmet, das OpenAI und Google schlagen könnte.

  • Gauss: Samsung beteiligt sich an der KI-Party und bringt seinen ChatGPT-Konkurrenten auf den Markt - mehr dazu →

  • AiPhone: Die nächste Version des iPhones soll Gerüchten zufolge über KI-Funktionen wie Schreibhilfe und KI-generierte Wiedergabelisten verfügen.

  • AI-Hardware: Ex-Apple-Mitarbeiter bringen den Humane Ai Pin auf den Markt, ein tragbares, dauerhaft mitschneidendes KI-Gerät, das auf deine Hand projiziert - hier wird es vorgestellt →

Das war’s für heute!

Wie fandest du den heutigen Newsletter?

Feedback hilft mir, die Qualität zu verbessern.

Login oder Abonnieren um an umfragen teilzunehmen.