Heiner Dunckel zu TOP 12: Professur für „Künstliche Intelligenz“ in SH einrichten!
Es gilt das gesprochene Wort!Hinweis: Diese Rede kann hier als Video abgerufen werden:http://www.landtag.ltsh.de/aktuelles/mediathek Kiel, 24. Januar 2019TOP 12: Professur für soziale Folgen der Künstlichen Intelligenz (Drs.19/1094, Drs. 19/1198)Heiner DunckelProfessur für „Künstliche Intelligenz“ in SH einrichten!„Einige von Ihnen kennen vielleicht das 1978 von Joseph Weizenbaum veröffentlichte Buch „Die Macht der Computer und die Ohnmacht der Vernunft“, in dem er sich kritisch mit der Artificial Intelligence, der Künstlichen Intelligenz auseinandersetzt. Die Diskussion um KI – der Simulation menschlichen Verhaltens und Entscheidens mittels Algorithmen – ist also nicht neu, genaugenommen ist der Begriff schon fast 100 Jahre alt. Philosophie, Psychologie und andere Geistes- und Sozialwissenschaften, aber auch die Informatik ringen spätestens seit den 1950er Jahren (denken Sie nur an die berühmte „Turing- Maschine“) u.a. um die Frage, was intelligent ist, ob es „künstliche“ Intelligenz gibt usw., ohne bislang zu befriedigenden abschließenden Antworten gekommen zu sein.Neu ist allerdings die Breite und Tiefe der Diskussion und der Anwendungen. Schon längst geht es nicht mehr um Schachcomputer oder Programme zur Textanalyse, sondern um Diagnosen in der Medizin, um das autonome Fahren oder um Algorithmen zur Wahrnehmung und Veränderung von Bildern und Situationen und zur Beeinflussung menschlichen Verhaltens u.v.m. Neu ist auch, dass die KI als eine Schlüsseltechnologie gesehen werden muss. Anders sind die enormen Summen, die z.B. China in den nächsten Jahren aufbringt, gar nicht zu erklären. Erlauben Sie mir hier nur den Hinweis, dass wir in Deutschland und Europa deutlich mehr Geld 2aufwenden müssen, um im Bereich der KI anschlussfähig zu bleiben. Als Schlüsseltechnologie beeinflusst und wird KI viele gesellschaftliche Bereiche und Lebensbereiche beeinflussen. Wenn wir diese Technik gestalten wollen und KI ist erst einmal nur eine Technik, dann müssen wir uns dieser Einflussnahme, den sozialen und gesellschaftlichen Folgen dieser Technik bewusst sein und hier ist zuvorderst die Wissenschaft gefragt. Lassen Sie mich dies an wenigen Beispielen verdeutlichen. Ein Berliner Start-Up hat ein Programm entwickelt, das in einem Artikel überschrieben wurde mit Sprechstunde bei einer künstlichen Intelligenz“. Über eine App werden Schritt für Schritt Symptome abgefragt und anschließend informiert das Programm den Ratsuchenden über mögliche Ursachen und gibt Empfehlungen, ggf. einen Arzt zu konsultieren. Hierbei greift die App auf ein von Ärzten erstelltes medizinisches Wissensnetz zurück.Auf den ersten Blick macht die App natürlich Sinn, reduziert ggf. Ängste, verkürzt Wartezeiten, erlaubt eine zielgerichtete Arztsuche usw. Auf den zweiten Blick stellt sich aber eine Reihe von Fragen: Wem gebe ich da eigentlich Auskunft? Wie werden meine Daten geschützt? Was passiert bei Fehldiagnosen? Was macht die Krankenkasse, wenn ich entgegen der Empfehlung nicht zum Arzt gehe? Wie verändert sich das Arzt-Patient- Verhältnis?Autonomes Fahren hat zumindest bei mir erst einmal eine positive Assoziation. Ich gebe den Zielort ein und mein Fahrzeug bringt mich autonom, selbständig dort hin, optimiert den Fahrweg und ggf. den Energieverbrauch usw., ohne dass ich eingreifen muss. Während der Fahrt kann ich lesen, ggf. sogar schlafen, mit den Kindern spielen usw.Wie bekannt wird die Kehrseite schon heiß diskutiert: Wer ist bei einem Unfall verantwortlich? Was passiert bei einem Verkehrs-Dilemma: Soll ich die junge Frau mit Kinderwagen oder den alten Mann gefährden? Soll ich eher mich oder andere Personen gefährden? Und auch bei dieser Technik müssen wir fragen, ob sie nur wenigen zugute kommt, die sich das leisten können, oder allen? Und von wem und wie wird das Verkehrswesen zukünftig organisiert; gibt es noch einen öffentlichen Nahverkehr? 3Und ein weiteres Beispiel: Mittlerweile liegen Programme vor, die z.B. Videos so verändern, manipulieren können, dass Personen in dem Video dargestellt werden, die gar nicht an dem Ort oder in der Situation waren. Das Entscheidende ist, dass diese Manipulation technisch kaum noch festzustellen ist. In Zukunft können wir, können Sie mit Reden in Videos dargestellt werden, die Sie gar nicht gehalten haben.Was das für die Wahrnehmung von Wahrheit, die Erkennung von Fake News bedeutet und welche Regulierungen hier erforderlich sind, ist noch gar nicht genau zu ermessen. Lassen Sie mich schließlich noch ein weiteres Problem kurz ansprechen.Wir sprechen hier über eine Technik, Techniken, über die in der Regel transnationale Konzerne und andere Länder – China habe ich schon genannt – verfügen, bei denen zumindest fraglich bleibt, ob und wie sie mit unseren Daten umgehen, ganz zu schweigen, ob unsere Daten dauerhaft sicher und geschützt sind.Liebe Kolleginnen und Kollegen, sie sehen, es ist eine Reihe technischer, wirtschaftlicher, ethischer, psychologischer, juristischer, letztlich auch demokratietheoretischer Fragen gestellt. Dem zitierten Buch von Weizenbaum unterliegt übrigens die allgemeine Frage, ob und welche Technik wir in welchem Umfang nutzen wollen. Diese Fragen müssen zuvorderst von der Wissenschaft beantwortet und von uns dann in staatliches Handeln umgesetzt werden. Sie lassen sich nicht von einer Wissenschaftsdisziplin beantworten, sondern nur interdisziplinär. Wir sollten von hier aus nicht nur das Signal geben, dass wir die Erforschung der sozialen Folgen dieser Schlüsseltechnologie für notwendig erachten, sondern auch die Mittel für eine derartige Professur, ein derartiges Forschungsfeld bereitstellen. Uns scheint die CAU ein geeigneter Ort für dieses Forschungsfeld. An welcher Hochschule dieses Forschungsfeld betrieben werden soll, kann aber gerne im Rahmen der Ziel- und Leistungsvereinbarungen geklärt werden.Wichtig ist nur, dass der genannte interdisziplinäre Ansatz möglich ist. Ich hoffe, ich konnte Sie überzeugen und freue mich auf weitere Diskussion im Bildungsausschuss. Ich danke Ihnen für Ihre Aufmerksamkeit.“