Podcasts von Alexander Paprotny
Der Warawesa - Podcast


Die Wahrheit über „Superintelligenz“ & AGI: Milliardenblase statt KI-Revolution (KI Teil 3)
Gibt es wirklich eine „KI-Revolution“?
In dieser Folge zeigt Dipl.-Ing. Alexander Paprotny, ehemaliger KI-Spitzenforscher, dass hier lediglich alte Verfahren in nie dagewesener Skalierung laufen, etliche Hundert Milliarden Dollar ohne klare Wertschöpfung in Rechenzentren fließen, und dass es sich bei Versprechen wie AGI und „Superintelligenz“ um unhaltbare Hirngespinste handelt.
Themen u.a. :
• KI als Marketingbegriff seit den 1960ern – kein neuer technischer Sprung
• LLMs, neuronale Netze (seit 1958) und Reinforcement Learning: historischer Kontext
• GPUs, dichte Rechenzentren, massiver CapEx: Ende der Grenzkosten-Magie von Software
• Reale Kosten: Strom- und Wasserverbrauch, Rohstoffe, Umweltfolgen
• Wirtschaftliche Logik: fehlendes Produkt, fehlender Umsatz, aber Rekordinvestitionen
• AGI/Superintelligenz: wissenschaftlicher Gehalt der Versprechen
• Penrose, Gödel, formale Systeme: Warum „Verstehen“ mehr ist als Rechnen
• Grenzen von Modellen: Papierflieger, virtuelle
Instrumente, Raumakustik als Praxisbeispiele
• Fazit: Warum es sich bei der angeblichen KI-Revolution in Wirklichkeit um eine Milliardenblase handelt
Verfügbar auf allen gängigen Steaming-Portalen:


KI Teil 1: Ex-KI-Spitzenforscher:
Kann sie Bewusstsein entwickeln & außer Kontrolle geraten?
KI kann „lernen“ – aber sie weiß nicht, was sie tut.
In dieser Warawesa-Podcast-Folge beleuchten wir Künstliche Intelligenz jenseits von Hype und Panik: Warum neuronale Netze unbewusst funktionieren, weshalb genau das zu Unvorhersehbarkeit führt – und wieso das mit Deiner eigenen Lebendigkeit zu tun hat. Dipl.-Ing. Alexander Paprotny (ehem. KI-Forscher) erzählt u. a. die Geschichte eines Militärprojekts, bei dem ein Bilderkennungs-System statt feindlicher Panzer schönes Wetter „erkannte“. Was bedeutet das für Kontrolle, Angst und echte innere Sicherheit?
Themen u.a.:
• Klarheit: KI ≠ Bewusstsein – wo die Grenze wirklich verläuft. Was heißt eigentlich „Künstliche Intelligenz“?
• Einordnung: Warum „intelligente“ Systeme unberechenbar wirken.• Selbstentwicklung: Wie du Angst vor Kontrollverlust in Kontakt & Lebendigkeit verwandelst.
• Vom Elektronenhirn bis Minsky
• Warum Sehen & Hören für Computer so schwer ist
• Heute: Cloud, Rechenpower & „Lernen“ – was Modelle tun
• Was ein „Neuronales Netz“ wirklich ist
• Animalische Kopplung: Hund & Heißluftballon
• Ausblick & Einladung: Metaperspektive statt Hype
Verfügbar auf allen gängigen Steaming-Portalen:
Turing-Test, ELIZA, Chatbots:
Was KI über unser Denken verrät (KI Teil 2)
Künstliche Intelligenz polarisiert: Hoffnung auf Erleichterung hier – Angst vor Kontrollverlust dort.
In dieser Folge schauen wir hinter den Hype. Was „lernen“ Maschinen wirklich? Warum scheinen Chatbots wie das populäre ChatGPT menschlich zu sein? Und was sagt das über UNS aus - über unseren Kontrollwahn, unsere innere Konditionierung und unser inneres Gefängnis? Und wie könnte es uns Weg zurück zur Lebendigkeit weisen?
Themen u.a.:
• warum maschinelles Lernen Konditionierung, aber keineswegs Verstehen ist: Was heißt „Lernen“ bei Maschinen wirklich?
• weshalb Turing-Test & ELIZA täuschen – und moderne Chatbots dasselbe Prinzip perfektionieren
• wieso Unvorhersehbarkeit nicht Bewusstsein bedeutet
• Kontrolle vs. Lebendigkeit: unsere Grundannahmen
• Maschinelles Lernen, Cloud & Rechenpower – was dahinter steckt
• „Intelligenz“ als Illusion: Muster statt Verstehen
• Der Turing-Test: was er misst – und was nicht
• Von ELIZA zu Chatbots: Gespräch ohne Bewusstsein
Unvorhersehbar ≠ lebendig: warum KI uns trotzdem täuscht
• Wirklichkeitscheck: Beobachten statt Glauben
Verfügbar auf allen gängigen Steaming-Portalen:
„Unheilbar“ laut Statistik? 3 % Überlebenschance? Der Denkfehler – Häufigkeit ≠ Deine Zukunft!
In unserem Lebensalltag, insbesondere im Zusammenhang mit Gesundheit und Medizin, wie auch bei großen gesellschaftlichen Vorgängen ist es für die allermeisten eine kaum hinterfragte Selbstverständlichkeit, dass wichtige und folgenschwere Entscheidungen anhand von statistischen Erhebungen und Wahrscheinlichkeiten getroffen werden.
Wer sich Statistiken und Wahrscheinlichkeiten zur Begründung seiner Entscheidungen bemächtigt, gilt gemeinhin als vernünftig, wissenschaftlich und vertrauenswürdig. Wahrscheinlichkeiten werden als das beste und vernünftigste Entscheidungskriterium in unsicher wirkenden Situationen angesehen.
Doch ist das wirklich zutreffend? Sind Wahrscheinlichkeiten wirklich ein sinnvolles Entscheidungskriterium? Was ist überhaupt Wahrscheinlichkeit? Was kann eine Aussage wie „mit Ihrer Erkrankung haben Sie eine dreiprozentige Überlebenswahrscheinlichkeit“ oder „Sie werden mit neunzigprozentiger Wahrscheinlichkeit innerhalb von drei Monaten an Ihrer Krankheit sterben“ überhaupt bedeuten?
Dipl.-Ing. Alexander Paprotny hat sich in seinem ersten Studium schwerpunktmäßig mit angewandter Mathematik und Statistik beschäftigt und war zu Beginn seiner beruflichen Laufbahn in der mathematischen Forschung im Bereich Künstliche Intelligenz und Statistik tätig. In diesem Rahmen hat er sich zum einen auf einem sehr hohen Niveau mit den theoretischen Grundlagen der Statistik und Wahrscheinlichkeitslehre, sowie mit ihrer praktischen Anwendung auseinandergesetzt. Auf Grundlage dieser Expertise sowie seines Wissens über einfache, prinzipielle Zusammenhänge zeigt er in dieser Ausgabe des Warawesa-Podcast allgemeinverständlich auf, was es mit Wahrscheinlichkeiten tatsächlich auf sich hat.
Kann es sein, dass Statistik und Wahrscheinlichkeiten für unsere individuelles Leben vollkommen bedeutungslos sind und lediglich etwas über den Grad des Unwissens desjenigen aussagen, der sich ihrer bemächtigt? Was könnte der in der Tiefe wirksame Beweggrund dafür sein, dass wir überhaupt mit Statistik und Wahrscheinlichkeiten argumentieren?
Kann es sein, dass es überhaupt keine Rolle spielt, welche Überlebens- oder Genesungswahrscheinlichkeit Dein Arzt oder Heilpraktiker Dir prognostiziert?
Haftungsausschluss: Dies ist ein Bildungskanal, kein Finanz-, Recht- oder Medizinkanal. Der Inhalt unserer Videos bzw. Podcasts dient ausschließlich zur allgemeinen Information und ist kein finanzieller, juristischer oder medizinischer Rat oder gar eine persönliche Empfehlung. Informieren Sie sich bitte immer aus mehreren unabhängigen Quellen und suchen Sie professionellen Rat für Ihre Entscheidungen, insbesondere im Bereich der Investments, des Rechts oder der Medizin. Alle Aussagen stellen keinerlei Aufforderung zum Handeln oder Unterlassen einer Handlung dar.
Verfügbar auf allen gängigen Steaming-Portalen:



Die Langton-Ameise – Wie ein einfaches Computermodell die Angst vor der KI nehmen und zugleich ein grundlegendes Lebensprinzip aufzeigen kann
Es häufen sich Beiträge von ehemaligen KI-Entwicklern, die etwa vor der Unkontrollierbarkeit der KI warnen. Dieser Eindruck kann jedoch nur entstehen, wenn ein Entwickler zwar programmieren kann, jedoch die grundlegende Mathematik nicht verstanden hat. Auch Alexander Paprotny hatte in seiner Jugend bereits programmiert und erst danach seine Begeisterung für Mathematik entdeckt und während er grundlegende Algorithmen für das, was man heutzutage KI nennt, entwickelte, festgestellt, dass nur wenige in der Lage sind zu verstehen, wie ein digitales System tatsächlich aufgebaut ist und wo seine Grenzen sind.
Die Langton-Ameise (https://de.wikipedia.org/wiki/Ameise_(Turingmaschine)) ist eine im Jahre 1986 durch den theoretischen Biologen Christopher Langton (https://de.wikipedia.org/wiki/Christopher_Langton) (*1949) entwickeltes Computermodell eines primitiven Organismus. Das zugrundeliegende Prinzip ist auch für Nichtfachleute – insbesondere auch für Kinder – leicht verständlich: Die „Welt“ der Langton-Ameise besteht aus einer theoretisch unendlich großen Fläche aus quadratischen Spielfeldern, welche schwarz oder weiß gefärbt sein können. Zu Beginn wird die Ameise auf ein beliebiges Feld gesetzt und in eine der vier möglichen Richtungen gedreht. In jedem Spielzug dreht sich die Ameise, wenn sie auf einem weißen Feld steht, nach rechts, auf einem schwarzen nach links. Nun kehrt sie die Farbe des Feldes, auf welchem sie sich befindet, um, und bewegt sich sodann in der Richtung in die sie zeigt ein Feld weiter.
Das System lässt also keinen Raum für Zufälligkeiten – bei gegebener Anfangsfärbung der Felder sowie Startposition und Startrichtung der Ameise ist für alle zukünftigen Spielzüge die Farbe jedes Feldes sowie Position und Richtung der Ameise genau vorherbestimmt und das System verhält sich bei Neustart des Spiels exakt identisch. Dennoch kann das Verhalten nicht durch eine einfachere Rechenvorschrift vorhergesagt werden – die einzige Möglichkeit, herauszufinden, wo sich die Ameise nach einer bestimmten Anzahl von Spielzügen befinden wird und wie die einzelnen Spielfelder gefärbt sein werden, besteht darin, das Spiel laufen zu lassen, bis diese Anzahl an Zügen erreicht wird.
Die Langton-Ameise macht den wesentlichen Unterschied zwischen Vorherbestimmtheit und Vorhersagbarkeit greifbar. Sie zeigt auf, dass ein Vorgang auch dann nicht zwangsläufig vorhergesagt werden kann, wenn er exakt bis in alle Einzelheiten vorherbestimmt ist. Dies erklärt unter anderem, warum eine sog. KI sich lebendig und individuell zu verhalten scheint.
Und wenn dies bereits für einen solch einfachen und in sich geschlossenen, digitalen Prozess wie die Langton-Ameise der Fall ist, was könnte das für die komplexen und hochgradig vernetzten Vorgänge in der Natur bedeuten?
Die Langton-Ameise weist ein bemerkenswertes Verhaltensmuster auf: Für den Fall, dass zu Beginn alle Spielfelder weiß sind, erzeugt sie in den ersten 104 Zügen symmetrische Figuren und beginnt sodann, ein völlig chaotisches, sich ausbreitendes Bild zu erzeugen. Nach ca. 10000 Zügen beginnt sie plötzlich, eine geordnete, regelmäßige Struktur zu zeichnen, welche sich unendlich fortsetzt.
Niemand würde vermuten, dass und wann dem chaotischen, ein geordnetes Verhalten folgt.
Hier wird ein fundamentales Naturprinzip veranschaulicht, welchem letztenendes alle Entwicklungsvorgänge folgen: zwischen zwei geordneten Zuständen wird stets eine Phase des Chaos durchlaufen. In der Mathematik und Nachrichtentechnik ist dieses Prinzip wohlbekannt – weniger bekannt ist jedoch, dass es sich auf alle Lebensbereiche übertragen lässt. Eine Raupe etwa (Ordnung) löst sich in der Verpuppung vollständig auf (Chaos). Aus der amorphen Masse in der Puppe bildet sich dann schließlich ein Schmetterling (höhere Ordnung) heraus.
Kann es sein, dass Abläufe in Deinem Leben und Deiner Entwicklung ebenfalls dem Ordnung-Chaos-Ordnung-Schema folgen? Hier Kurzvideo anschauen ...