Künstliche IntelligenzKünstliche Intelligenz. Bild von Alexandra_Koch auf Pixabay

Berlin (ots)TÜV-Verband Studie: Mehrheit erwartet positive Auswirkungen Künstlicher Intelligenz auf Privat- und Arbeitsleben. Hoher Bedarf für KI-Weiterbildungen bei Erwerbstätigen. Bundesbürger:innen fordern gesetzliche Vorgaben, um Risiken einzudämmen. Verhandlungen in Brüssel: Europäischen „AI Act“ jetzt zügig verabschieden.

Ein Jahr nach der Einführung von ChatGPT verbreiten sich Anwendungen generativer Künstlicher Intelligenz (KI) rasant: Gut jede:r Dritte Bundesbürger:in hat bereits ChatGPT genutzt (37 Prozent). Im Vergleich zum April ist das ein Zuwachs von 14 Prozentpunkten. Das ist das Ergebnis einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.008 Personen ab 16 Jahren. Demnach haben 85 Prozent der Befragten schon einmal von ChatGPT gehört oder darüber gelesen (plus 2 Punkte). „ChatGPT und andere KI-Anwendungen entwickeln sich zu wichtigen Werkzeugen für das berufliche und private Leben der Nutzer“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei der Vorstellung der Studienergebnisse. Laut Umfrage sind die wichtigsten Anwendungen Unterhaltungszwecke (52 Prozent), Recherchen (44 Prozent), die Erstellung von Texten (40 Prozent) oder die Generierung und Bearbeitung von Fotos oder Videos (26 Prozent). Fast ein Viertel nutzt ChatGPT für die Lösung verschiedenster Probleme (23 Prozent) und 12 Prozent programmieren damit. Allerdings gibt es auch Vorbehalte und Sorgen rund um den Einsatz von KI. Gut die Hälfte der Befragten hat kein Vertrauen in die Ergebnisse generativer KI-Anwendungen (56 Prozent). Und eine überwältigende Mehrheit von 83 Prozent ist der Meinung, dass es gesetzliche Vorgaben für den sicheren Einsatz Künstlicher Intelligenz geben sollte. „Nach der EU hat sich jetzt auch die US-Regierung zu einem Rechtsrahmen für Künstliche Intelligenz bekannt“, sagte Bühler. „Die Verhandlungen für den europäischen AI Act sind auf der Zielgeraden und müssen jetzt zu einem erfolgreichen Ende geführt werden.“

Laut den Ergebnissen der Umfrage erwartet eine breite Mehrheit, dass sich die Technologie positiv auf ihr Leben auswirken wird. Aus Sicht von 55 Prozent hat KI das Potenzial, die Befragten in ihrem privaten Leben zu unterstützen. Bei 58 Prozent gilt das auch für den eigenen Beruf. Fast die Hälfte der Erwerbstätigen erwartet, dass Künstliche Intelligenz in fünf Jahren eine große oder sehr große Rolle für ihre berufliche Tätigkeit spielen wird. „Künstliche Intelligenz ist gekommen, um zu bleiben“, sagte Bühler. „Ein Jahr ChatGPT hat gezeigt, dass KI direkte oder auch indirekte Auswirkungen auf das Arbeitsleben sehr vieler Berufstätiger haben wird.“ Fast jede:r dritte Erwerbstätige befürchtet, beruflich abgehängt zu werden, wenn sie die Technologie nicht beherrschen (31 Prozent). Und fast zwei Drittel der Befragten hält eine Weiterbildung zu Künstlicher Intelligenz für ihre berufliche Tätigkeit für sinnvoll (63 Prozent). „Unsicherheit besteht noch darüber, inwieweit KI-Systeme eine echte Gefahr für den eigenen Arbeitsplatz sind oder diesen wie Computer, Internet oder Smartphone schrittweise verändern werden“, sagte Bühler. Gut die Hälfte der Erwerbstätigen ist der Meinung, dass KI-Systeme Routineaufgaben ihrer beruflichen Tätigkeit übernehmen werden oder das jetzt schon tun. Und immerhin 29 Prozent glauben, dass KI ihre berufliche Tätigkeit ganz oder teilweise ersetzen könnte.

Große Mehrheit sieht erhebliche Risiken beim Einsatz von KI

Trotz einer insgesamt aufgeschlossenen Haltung zu Künstlicher Intelligenz sehen die Befragten auch erhebliche Gefahren. Gut drei von vier stimmen der Aussage zu, dass beim Einsatz von KI-Technologie derzeit nicht abschätzbare Risiken bestehen (78 Prozent). Insbesondere die Folgen der KI-Nutzung für das Mediensystem und die Demokratie sehen die Bundesbürger:innen kritisch. 92 Prozent glauben, dass mit dem Einsatz von KI kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Dass der Wahrheitsgehalt eines mit Hilfe von KI generierten Textes nicht mehr erkennbar ist, meinen 83 Prozent. Und 81 Prozent erwarten, dass KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigen wird. Eine große Mehrheit von 91 Prozent fordert daher eine Transparenz- und Kennzeichnungspflicht für Inhalte, die mit Hilfe von Künstlicher Intelligenz erzeugt worden sind. Und 86 Prozent der Bundesbürger:innen halten eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen durch unabhängige Prüforganisationen wie zum Beispiel den TÜV für notwendig.

Aus Sicht des TÜV-Verbands müssen die finalen Verhandlungen über die europäische KI-Verordnung („AI Act“) jetzt zügig abgeschlossen werden. „Nach der Europäischen Union strebt jetzt auch die US-Regierung mit einer Executive Order von Präsident Biden Regelungen für die sichere Entwicklung und Nutzung Künstlicher Intelligenz an“, sagte Bühler. „Die EU darf ihre globale Vorreiterrolle bei der Schaffung sicherer Rahmenbedingungen für die Entwicklung sicherer und vertrauenswürdiger KI nicht verspielen.“ Ein Streitpunkt in den finalen Trilog-Verhandlungen ist der Umgang mit so genannten KI-Basismodellen, die je nach Leistungsfähigkeit auch so genannte „Allzweck KI“ (General Purpose AI) wie ChatGPT umfassen. „Die Beteiligten sollten sich hier auf einen Kompromiss einigen“, forderte Bühler. Der von einigen Ländern geforderte vollständige Verzicht auf eine Regulierung der KI-Basismodelle widerspreche dem Geist des AI Act. Stattdessen sollten auch hier grundlegende Transparenzpflichten als Mindestanforderung festgelegt werden. Als entscheidender Termin der Trilog-Verhandlungen gilt der 6. Dezember.

Der AI Act sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Je nach Risiko müssen die Anbieter unterschiedliche Anforderungen erfüllen. „Der Großteil der KI-Anwendungen muss keinerlei Vorgaben erfüllen“, sagte Bühler. Andere KI-Systeme wie Social Scoring werden dagegen komplett verboten. KI-Systeme mit einem „begrenzten Risiko“ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“, zum Beispiel in kritischen Infrastrukturen, Software im Personalwesen oder bestimmte KI-basierte Roboter, gelten strengere Sicherheitsanforderungen wie die Nachvollziehbarkeit ihrer Ergebnisse oder Diskriminierungsfreiheit.

Auf nationaler Ebene muss aus Sicht des TÜV-Verbands schon jetzt die Umsetzung der KI-Vorgaben vorbereitet werden. Basis dafür sind Normen, Standards und Qualitätskriterien. Darüber hinaus müssen entsprechende Prüf- und Testverfahren entwickelt werden. Die TÜV-Unternehmen haben das „TÜV AI.Lab“ gegründet und arbeiten mit Forschungseinrichtungen, Verbänden und Normungsinstituten zusammen. Notwendig ist auch eine Informationsoffensive für die Wirtschaft. Bühler: „Vor allem mittelständische Unternehmen und Startups brauchen Unterstützung bei der Umsetzung der Vorgaben.“

Weitere Informationen und eine Präsentation mit den Umfrageergebnissen sind abrufbar unter: https://ots.de/4YTmtd

Newsletteranmeldung

Werbung

Artikel-Ende


Auf deine Mithilfe kommt es an!

Obwohl nur ein einziger Journalist mit der gelegentlichen Unterstützung zahlreicher ebenfalls freiberuflicher Kollegen und Ehrenamtler hat Stefan Raven News seit 2020 immer wieder Dinge aufgedeckt, die andere Medien erst später berichteten. Leider sehen es diese Medien nicht als angebracht an, den Erstberichterstatter (uns/mich) zu nennen, wie es im Journalismus Gang und Gebe ist. Einige haben uns sogar schon gelegentlich die Stories im wahrsten Sinne des Wortes geklaut. Das ist kein netter Umgang zwischen Kollegen.

Auf der anderen Seite werde ich auch immer wieder von politischen Extremisten angezeigt. Die Vorwürfe nennt man mir noch nicht einmal. Die Anzeigen stellen sich nach zwei Monaten von alleine ein. Es scheint hier vermutlich darum zu gehen, unliebsame Berichterstatter wegen ihrer hohen Trefferquote an Aufdeckungen einzuschüchtern. Funktioniert leider nicht, da weder ich, noch meine Kollegen uns jemals etwas zu schulden kommen lassen. Um ehrlich zu sein, motiviert uns dieses sogar noch, noch weiter zu bohren, noch mehr nachzuhaken und erst Recht über bestimmte Themen zu schreiben.

Diese Arbeit ist nur mit deiner Unterstützung möglich!

Helfe mit und stärke kritischen, unabhängigen Journalismus, der keine Rundfunkbeiträge oder Steuergelder bekommt, und keinen Milliardär als Finanzier hat. Als Journalist bin ich nur der Wahrheit und der Wissenschaft verpflichtet. Doch daher bin ich auch auf die freiwillige Unterstützung meiner Leser angewiesen.

Herzlichen Dank im voraus!

Per PayPal. 

Alternativ via Banküberweisung, IBAN: BE02 9741 0271 6040 BIC: PESOBEB1 (Kontoinhaber: Stefan Michels)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert