Foto: pxhere
Mensch, Maschine, Netzwerk: Wie Denken funktioniert – und was es für Kultur bedeutet
Zusammenfassung eines Vortrags von Roland Wiest, 29. September 2025
Von:
Sabine Fauland, Graz
Roland Wiest spannte in seinem Vortrag einen interdisziplinären Bogen von der Geschichte über die Grundlagen bis hin zu den aktuellen Anwendungen der künstlichen Intelligenz (KI). Er rückte insbesondere die Unterschiede, Gemeinsamkeiten und Wechselwirkungen zwischen menschlicher und maschineller Informationsverarbeitung in den Mittelpunkt.
Historische Entwicklung von Algorithmen und Rechenmaschinen
Schon die Antike zeigt den Drang des Menschen, komplexe Prozesse zu automatisieren: Der antikytherische Mechanismus aus dem 2. Jahrhundert v. Chr. konnte Planetenbahnen berechnen. Jahrhunderte später brachte der persische Mathematiker al-Chwarizmi das indische Zahlensystem nach Europa; sein Name wurde zum Ursprung des Begriffs „Algorithmus“. Im 18. Jahrhundert faszinierte der „Schachtürke“, eine angeblich selbstständig Schach spielende Maschine, die jedoch von einem Menschen gesteuert war. Im 19. Jahrhundert entwarf Ada Lovelace erste Programme für Charles Babbages Rechenmaschine und ging damit als erste Programmiererin in die Geschichte ein. Mit dem ENIAC entstand in den 1940er Jahren schließlich der erste elektronische Großrechner, der von sechs Programmiererinnen – damals selbst als „Computer“ bezeichnet – betrieben wurde.
Diese Entwicklung kulminierte 1956 in der Dartmouth Conference, die heute als Geburtsstunde der Künstlichen Intelligenz gilt. Dort prägten führende Wissenschaftler erstmals den Begriff und definierten KI als Systeme, die Aufgaben lösen sollen, die üblicherweise menschliche Intelligenz erfordern. Schon damals zeigte sich ein Riss in der Gemeinschaft: Auf der einen Seite standen die Symbolisten, die Intelligenz durch explizites Wissen und klare Regeln erklärten. Sie entwickelten wissensbasierte Systeme, die Entscheidungen nachvollziehbar machten, aber an den Grenzen ihres Regelwerks scheiterten. Auf der anderen Seite standen die Konnektionisten, die sich am Gehirn orientierten und künstliche neuronale Netze entwarfen, die aus Erfahrungen lernen konnten, aber anfangs technisch kaum belastbar waren. Diese Auseinandersetzung prägte die KI-Forschung über Jahrzehnte. Während die Symbolisten die ersten Expertensysteme hervorbrachten, legten die Konnektionisten die Grundlage für maschinelles Lernen und Deep Learning, das seit den 2010er-Jahren den Durchbruch brachte.
Unterschiede zwischen menschlicher und künstlicher Intelligenz
Menschliche und künstliche Intelligenz beruhen auf grundlegend verschiedenen Prinzipien. Das menschliche Gehirn arbeitet ununterbrochen, auch ohne äußere Reize. Es filtert, bewertet und kombiniert Informationen fortwährend, um Vorhersagen über die Umwelt zu treffen. Parallel aktive Netzwerke überwachen den inneren Zustand, halten uns sprachbereit oder scannen die Außenwelt auf Bedrohungen. Muster werden nicht nur erkannt, sondern mit Bedeutung und Konsequenzen verknüpft. So stellt ein Arzt bei Symptomen eines Schlaganfalls nicht nur die Diagnose, sondern verbindet sie sofort mit Risiken, Handlungsoptionen und der Dringlichkeit des Eingreifens.
Menschen sind zudem in der Lage, aus wenigen Beobachtungen weitreichende Schlüsse zu ziehen. Sie kombinieren schnelle Heuristiken mit analytischen Verfahren, die Entscheidungen Schritt für Schritt absichern. Lernprozesse beruhen nicht nur auf assoziativen Verknüpfungen, sondern auch auf deklarativem Lernen, also dem bewussten Erwerb von Fakten und Konzepten. Das Gehirn ist damit eine „Vorhersagemaschine“, die ihre inneren Modelle flexibel anpasst.
Künstliche Intelligenz hingegen bleibt strikt inputgetrieben. Ohne Trainingsdaten ist sie funktionslos. Sie lernt vor allem assoziativ, indem sie Muster in großen Datenmengen erkennt. Die Ergebnisse sind präzise, aber inhaltsleer: Algorithmen erkennen Wahrscheinlichkeiten, nicht deren Bedeutung. Hinzu kommt die Black-Box-Problematik – die Entscheidungswege sind schwer nachvollziehbar, selbst für Fachleute.
Ein anschauliches Bild verdeutlichte den Unterschied: Ein Bär in Alaska verlässt sich bei der Fischjagd auf Riechen, Hören und Sehen. Fällt ein Sinn aus, kann er die fehlende Information durch die anderen kompensieren und weiterhin erfolgreich jagen. Ein Algorithmus dagegen bricht ein, sobald ein trainierter Eingangskanal fehlt oder fehlerhaft ist. Weitere Beispiele machten den Unterschied noch klarer: Die menschliche Netzhaut zerlegt Lichtreize in Kontraste und Kanten – ähnlich wie Computer Vision –, gleicht diese Eindrücke jedoch zusätzlich mit Erfahrungen ab. In Experimenten mit Tauben zeigte sich, dass selbst Tiere nach kurzem Training pathologische Bilder fast so gut klassifizieren konnten wie Fachärzte, allerdings ohne zu verstehen, was sie sahen. Menschen wiederum kombinieren heuristisches und analytisches Denken – wie es der Psychologe Daniel Kahneman beschrieben hat. Kahneman, der für seine Forschungen zur Entscheidungspsychologie den Nobelpreis erhielt, zeigte, dass Menschen Entscheidungen bevorzugt auf dem schnellsten und energiesparendsten Weg treffen. Unser Gehirn greift daher meist auf Heuristiken zurück: Sie ermöglichen schnelle Urteile mit geringem Aufwand an Energie und Aufmerksamkeit. Nur wenn diese „Shortcuts“ nicht ausreichen oder widersprüchliche Informationen auftreten, schaltet das Gehirn in den analytischen Modus um und prüft Schritt für Schritt. Dieses Zusammenspiel aus Intuition und Analyse macht menschliche Entscheidungen effizient, aber auch anfällig für Fehler. Hier kann KI nützlich sein, indem sie als zweites System Widersprüche aufzeigt und so eine kritische Überprüfung anstößt.
Zusammenfassend kann man sagen, dass menschliche Intelligenz ist flexibel, kontextbewusst und bedeutungsorientiert, während künstliche Intelligenz auf starre Mustererkennung reduziert bleibt.
Anwendungen in der Medizin
Gerade die Medizin erweist sich als Vorreiterin in der Anwendung von KI. In der Bildgebung erkennen Algorithmen Schlaganfälle, Tumoren, MS-Herde oder Gefäßveränderungen oft schneller und teils zuverlässiger als Fachärzte. In der Prävention können KI-gestützte Bluttests Alzheimer-Risikoproteine bis zu 17 Jahre vor dem Ausbruch nachweisen. Assistenzsysteme analysieren Hautveränderungen oder steuern Operationsroboter, sodass selbst Fernoperationen möglich werden. Digitale Zwillinge simulieren Organe und Gefäßsysteme und erlauben so Prognosen oder Therapieplanungen.
Doch der Einsatz birgt auch Risiken. Ein Algorithmus verwechselte in Röntgenbildern Katheter mit Pneumonien, weil er am falschen Merkmal gelernt hatte. Solche Fehlentscheidungen zeigen, wie wichtig die kritische Rolle des Arztes bleibt. Gleichzeitig gibt es eindrucksvolle Erfolge: In Studien waren Algorithmen bei der Diagnose von Herzinsuffizienz deutlich präziser als Ärzte – mit Ausnahme der Einschätzung gesunder Patienten, wo Menschen gleichauf lagen. In den USA konnte ein KI-basiertes Schlaganfall-System die Behandlungskette um durchschnittlich elf Minuten verkürzen, was Millionen von Nervenzellen rettet. Zudem steigerten solche Systeme nicht nur die diagnostische Präzision, sondern auch das Selbstvertrauen der Ärzte in ihre Urteile.
Gesellschaftliche und kulturelle Dimensionen
KI wirft nicht nur medizinische oder technologische, sondern auch tiefgreifende kulturelle und gesellschaftliche Fragen auf. Sie verändert, wie wir Wissen erzeugen, Kultur erleben und uns selbst verstehen.
In der Kunst sorgte die Roboterkünstlerin Ai-Da für Aufsehen, deren Werke auf dem internationalen Markt Millionenpreise erzielen. Dies wirft die Frage auf, ob Algorithmen tatsächlich „Kunst“ schaffen oder nur deren Simulation. Museen und Kulturinstitutionen könnten mithilfe virtueller Avatare, Hologramme und digitaler Zwillinge Geschichte künftig immersiv erfahrbar machen, indem Besucher:innen mit historischen Figuren interagieren oder längst vergangene Szenen miterleben. Gleichzeitig stellt sich die Frage, inwiefern virtuelle Realität das Authentische verdrängen darf.
In der Popkultur sind KI-generierte Stars wie Hatsune Miku in Japan längst etabliert. Sie füllen Stadien, treten mit realen Künstler:innen wie Lady Gaga auf und werden von Fans verehrt wie menschliche Idole. Europa reagiert bislang zurückhaltender, doch die Entwicklung ist unübersehbar.
Mit diesen kulturellen Phänomenen verknüpft sich die alte philosophische Frage nach dem Bewusstsein. Wiest verweist auf die Global Workspace Theory, nach der Bewusstsein entsteht, wenn verschiedene Hirnnetzwerke Informationen zusammenführen, sowie auf die Integrated Information Theory, die Bewusstsein als Produkt hoher Komplexität beschreibt. Für Maschinen bedeutet dies: Sie können Muster simulieren, aber kein subjektives Erleben hervorbringen.
Damit stellt sich auch die Frage gesellschaftlicher Verantwortung. Wie gehen wir mit Systemen um, die menschliches Handeln imitieren, aber kein Bewusstsein besitzen? Wiest plädierte dafür, KI als Werkzeug zu begreifen, das nur dann nützlich ist, wenn es in klaren Regeln verankert bleibt und interdisziplinär getragen wird.
Fazit
Menschen sind Maschinen in wichtigen Punkten überlegen, insbesondere in der Integration komplexer Informationen, in der Bedeutungserfassung und in der heuristischen Flexibilität. KI-Systeme übertreffen Menschen dagegen in Berechnungen und Detailanalysen. Eine Symbiose beider Ansätze erscheint zukunftsweisend. Die größte Herausforderung liegt darin, klare Regeln, definierte Einsatzgebiete und interdisziplinäre Zusammenarbeit zu etablieren.
Roland Wiest schloss mit einem optimistischen Ausblick: Ingenieur:innen, Mediziner:innen, Geisteswissenschaftler:innen und Künstler:innen sollten gemeinsam hybride Kompetenzprofile entwickeln, um die Zukunft aktiv zu gestalten. Das menschliche Gehirn ist weniger eine Analyse- als vielmehr eine Produktionsmaschine, die fortwährend Vorhersagen trifft und sich flexibel anpasst – ein entscheidender Vorteil gegenüber der KI, die auf gelernten Mustern verharrt.
Über den Referenten:
Roland Wiest ist Professor für Advanced Neuroimaging an der Universität Bern und Forschungsdirektor des Support Center for Advanced Neuroimaging (SCAN). Als Facharzt für Neurologie mit Spezialisierung in Neuroradiologie verbindet er klinische, technische und theoretische Expertise auf dem Gebiet der funktionellen Bildgebung des Gehirns.
Mit der Gründung von SCAN etablierte er ein interdisziplinäres Zentrum für neurowissenschaftliche Bildgebung und war maßgeblich an der Entwicklung didaktischer Konzepte im Schnittfeld von Neuroimaging und Künstlicher Intelligenz beteiligt.
Neben seiner Tätigkeit als Dozent an mehreren Fakultäten engagiert sich Wiest in nationalen und internationalen Gremien für die Weiterbildung in der klinischen Neurowissenschaft und für einen reflektierten Einsatz digitaler Technologien in der Medizin.










