Künstliche Intelligenz: Chancen und Risiken

Lesedauer: 5 Min

Ein Mitarbeiter des Robotic Innovation Centers steuert bei der CeBIT Messe in Hannover (2017) am Stand des deutschen Forschungs
Ein Mitarbeiter des Robotic Innovation Centers steuert bei der CeBIT Messe in Hannover (2017) am Stand des deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) mit Hilfe eines Exoskeletts den Roboter Aila. (Foto: dpa)
Schwäbische Zeitung
Wolfgang Mulke

Computersysteme lernen Autos zu manövrieren. Im Onlinehandel bekommen Kunden Angebote, die genau auf ihr Interessenprofil passen. Bald werden vielleicht Waschroboter in Pflegeheimen einen Teil der Körperpflege übernehmen und täglich dazulernen, welche Berührungen ein Patient nicht mag oder besonders gerne hat. Die hinter diesen Anwendungen stehende Technologie ist als Künstliche Intelligenz (KI) weithin bekannt. Zwei Drittel der Bevölkerung kennen den Begriff und können dessen Inhalt auch erklären. Nur jeder Zehnte weiß mit KI gar nichts anzufangen. Das ergab eine repräsentative Umfrage des Branchenverbands Bitkom.

Mehr als die Hälfte der Befragten sehen im Einsatz dieser Systeme auch mehr Chancen als Risiken. Die Anwendungsgebiete versprechen ihnen auch mehr Service oder genauere Analysen. Umweltphänomene können besser vorhergesagt, Finanzkriminalität effektiver bekämpft werden. Mit KI kann es weniger Staus geben oder auch bessere Servicehotlines, wenn Maschinen die Fragen der Konsumenten beantworten. Entsprechend hoch ist das wirtschaftliche Potenzial. „Künstliche Intelligenz ist die digitale Schlüsseltechnologie schlechthin“, sagt Bitkom-Chef Achim Berg. Deutschland sei hier weltweit führend und müsse die sich daraus ergebenden Anwendungsmöglichkeiten auch nutzen.

Auch Industrievertreter Berg weiß, dass den Chancen auch beträchtliche Risiken gegenüber stehen. „Wir müssen Mechanismen erarbeiten, die einen möglichen Missbrauch dieser Technologie im besten Falle ganz ausschließen oder auf ein Minimum reduzieren“, schlägt er vor. Die Gefahren erschließen sich meist erst auf den zweiten Blick. So sind selbstfahrende Autos für viele Fahrer erst einmal ein Gewinn. Doch fallen dabei Daten an, die sein Leben am Steuer für andere sichtbar machen und womöglich für höhere Versicherungskosten sorgen. Auch die Haftungsfrage bei Unfällen ist noch nicht eindeutig zugunsten des Kunden geklärt.

An anderer Stelle sind es ethische Fragen, die einer Klärung bedürfen, oder auch rein wirtschaftliche. Wie gefährlich sind zum Beispiel die allgegenwärtigen personalisierten Konsumtipps im Internet? Die Anbieter bezahlen schließlich diese Werbung durch die Webportale. Kleinere und finanziell schwächere Wettbewerber könnten somit aus dem Markt gedrängt werden. „Diesem Problem werden wir uns stellen“, versichert der Staatssekretär im Bundesverbraucherministerium, Gerd Billen. Die Souveränität der Bürger dürfe nicht zum Objekt eines Algorithmus werden.

Eine Art TÜV für KI-Programme lehnt die Industrie ab. Billen pocht hingegen auf eine staatliche Kontrolle der Algorithmen. „Eine unabhängige Markt- und Produktkontrolle ist unerlässlich“, sagt der Politiker. So etwas funktioniert auch in anderen Branchen, ohne dass dabei Geschäftsgeheimnisse ins öffentliche Licht gehievt werden. Die Bankenaufsicht schaut sich zum Beispiel die Geschäfte der Finanzinstitute an. Waschmittelhersteller müssen die Zusammensetzung ihrer Reinigungspulver dem Umweltbundesamt melden. Analog dieser Vorbilder will das Verbraucherministerium auch Regelungen für die Betreiber von KI-Systemen entwickeln. Dass in der noch jungen Technologie bis zu einer optimalen Lösung noch Dinge schiefgehen werden, räumt Billen ein. „Bei vielen Anwendungen werden wir in den nächsten Jahren Unfälle erleben“, befürchtet der Staatssekretär.

Ihr Kommentar wird nach einer kurzen Prüfung durch unsere Redaktion veröffentlicht.
Kommentare werden geladen
Mehr Themen