KI braucht soziale Kompetenzen
- Written by Redaktion
- font size decrease font size increase font size
Sascha Puljic, Vice President Central Europe beim Daten-Spezialisten Teradata, kommentiert, inwieweit ethische Überlegungen in die Programmierung von Algorithmen einbezogen werden müssen.
Roboter, die gegeneinander Fußball spielen oder selbst den Schachweltmeister mühelos besiegen können – die Wissenschaft beschäftigt sich seit vielen Jahren damit, den Intellekt des Menschen künstlich nachzubauen. Was in den 1960er Jahren pure Fiktion war, ist mittlerweile Wirklichkeit geworden. Zu Beginn der Forschung wurden Maschinen entwickelt, die menschliches Handeln nachahmen sollten. Mittlerweile weiß man, dass es schwierig ist, „denkende“ Roboter zu bauen, ohne das menschliche Denken an sich komplett zu verstehen. Das führt dazu, dass die Entwicklung von künstlicher Intelligenz nun neben IT auch die Bereiche Neurologie, Psychologie und sogar Philosophie umfasst. Um den ethischen Ansprüchen unserer Gesellschaft gerecht werden zu können, muss Ethik in die DNA aller selbstlernenden Algorithmen programmiert werden.
Verzicht auf Sinn im Tausch gegen Macht
Der Historiker Yuval Noah Hariri entwirft in seinem Buch „Homo Deus“ eine düstere Zukunftsvision. Gefüttert durch die grenzenlosen Datenmassen des Internets erweitern Algorithmen ihre Expertise ins Unendliche. Durch diese Anhäufung von datenbasiertem Wissen sei es schon bald möglich, dass Roboter ganze Unternehmen leiten oder sogar Staaten regieren würden. Für die Weiterentwicklung der Algorithmen seien nur wenige Programmierer von Nöten, sodass für den durchschnittlichen Homo Sapiens eigentlich kein Platz mehr in der Welt sei. Der neu geschaffene „Dataismus“ löse die bestehenden Glaubenssysteme des Individualismus, der menschlichen Seele sowie den freien Willen des Individuums ab. Der technologische Fortschritt ist für Hariri nicht Segen, sondern Fluch für die Menschheit. Der Tesla-Gründer Elon Musk geht sogar noch einen Schritt weiter: Der Mensch müsse sich seiner Meinung nach langfristig zum Cyborg aufrüsten, um der künstlichen Umgebungsintelligenz standhalten zu können. Vermutlich aus diesem Grund investiert Musk in ein Startup im Silicon Valley, das sich mit der Entwicklung von Hirnimplantaten beschäftigt, die zum Ziel haben, irgendwann mit Computern vernetzt werden zu können.
Die umstrittene Macht der Algorithmen
Im Zeitalter der Automatisierung nutzt der Mensch Algorithmen, um komplexe Entscheidungen zu treffen, die auf einem für den Menschen nicht-fassbaren Datensatz beruhen. Im Bereich des Autonomen Fahrens oder der Medizin werden innerhalb kürzester Zeit kritische Entscheidungsbereiche von Maschinen geführt, die teils fragwürdige Ergebnisse zutage fördern. Auf deren nüchterner Logik basierend und jegliche Menschlichkeit ausklammernd, mögen diese sogar empirisch gesehen richtig sein. Allerdings stellt sich die Frage, wie mit automatisch generierten Entscheidungen umgegangen wird, wenn es beispielsweise um Leben und Tod geht; und wie sichergestellt wird, dass Gesetze, ethische und moralische Standards, eingehalten werden. Eine alte IT-Weisheit besagt: „A fool with a tool is still a fool”. Ohne ethische Standards wird Künstliche Intelligenz sozusagen ein „Tool für Fools“ bleiben – und darüber hinaus sogar einen Rückschritt für die Humanität bedeuten.
Verantwortbare KI muss ethische Kriterien erfüllen
Um die Vorteile von Künstlicher Intelligenz verantwortungsbewusst nutzen zu können, müssen Programmierer und Technologieanbieter sicherstellen, dass die Entscheidungswege des Algorithmus nachvollziehbar sind. Nur vollständige Transparenz bietet Manipulationssicherheit, Vorhersagbarkeit – und vor allem Vertrauen. Wenn selbstlernende und selbsturteilende Technologien in Wirtschaft, Industrie und staatlichen Institutionen eingesetzt werden, müssen sie sich an denselben Maßstäben messen lassen wie ihr menschliches Pendant. Nur so können wir sicherstellen, dass der Segen von Künstlicher Intelligenz größer ist als sein Fluch.