Neues Diskussionspapier zu verantwortungsvollem Umgang mit generativer KI von Leopoldina vorgelegt

Künstliche Intelligenz (KI) revolutioniert unsere Welt. Doch neben den Chancen werden auch die Risiken immer lauter diskutiert.

Hände von Robotern und Menschen, die sich auf Big-Data-Netzverbindung im Hintergrund treffen, symbolisiert Wissenschaft und künstliche Intelligenz, Technologie und Innovation

© ipopba - stock.adobe.com

Generative KI (Gen KI) ist in der Lage, Inhalte auf Knopfdruck eigenständig zu generieren. Dienste wie ChatGPT machen diese Leistungen öffentlich verfügbar. Nun hat die Akademie der Wissenschaften Leopoldina in ihrer neuen Publikation „Generative KI – jenseits von Euphorie und einfachen Lösungen“ Ansätze für den verantwortungsvollen Umgang mit Gen KI entworfen. Das interdisziplinäre AutorInnen-Team vereinigt Expertise u.a. aus der Philosophie, Ethik der Informationstechnologie und Recht.

Zu den diskutierten Problemstellungen zählen folgende Themen:

  • Bias: KI-Systeme spiegeln gesellschaftliche Verhältnisse auf Basis bestehender Daten wider. Hierzu gehören auch Werte und Ungleichheiten. Diese können als „Bias“, also Verzerrung, verstanden werden. Werden diese unhinterfragt von NutzerInnen übernommen, können bestehende gesellschaftliche Problematiken verstärkt werden. Will man dem Bias technisch entgegenwirken, ist dies hochkomplex und erfordert umfassende Expertise auf Seiten der EntwicklerInnen.
  • Intransparenz: NutzerInnen ist oft nicht klar, wie genau die von KI generierten Ergebnisse zustande kommen. Ein relativ neues Feld, die „erklärbare KI“, versucht diese Entscheidungsprozesse im Nachhinein zu rekonstruieren. Doch auch diese Prozesse seien manipulierbar, so die AutorInnen. Folglich müsse in extrem sensiblen Bereichen KI weiterhin nur mit äußerster Vorsicht eingesetzt werden.
  • Täuschungspotenziale: Nicht immer ist NutzerInnen klar, dass sie gerade mit einer KI kommunizieren. Entsprechende Inhalte bieten daher viel Raum für Täuschungen. Auch bei bewusster Nutzung von KI neigen NutzerInnen jedoch dazu, der KI menschliche Eigenschaften zuzuschreiben (Bewusstsein, Verständnis, etc.). Hierdurch und aufgrund der schnellen Verfügbarkeit von KI-Inhalten steigt die Anfälligkeit für Missbrauch.

Mit den Publikationen der Reihe „Leopoldina-Diskussion“ ermöglicht es die Akademie WissenschaftlerInnen, in einem relativ flexiblen Entstehungsprozess Impulse an die Gesellschaft zu senden und Diskussionen anzuregen. Auch Handlungsempfehlungen auf Basis wissenschaftlicher Expertise können so an eine breitere Öffentlichkeit kommuniziert werden.