Neue ALAIT-Dossiers: Wie KI gegen Hass im Netz und bei der Vergabe von Sozialhilfe und Co. eingesetzt werden kann | Brandaktuell - Nachrichten aus allen Bereichen

Neue ALAIT-Dossiers: Wie KI gegen Hass im Netz und bei der Vergabe von Sozialhilfe und Co. eingesetzt werden kann

0 56

Die Vor- und Nachteile der Nutzung von Künstlicher Intelligenz (KI) im Kampf gegen Hass im Netz beziehungswiese bei der Vergabe von staatlichen Transferleistungen sind Inhalt zweier neuer Dossiers des Austrian Lab for AI Trust (ALAIT). Die unter science.apa.at/project/alait/ abrufbaren Publikationen sind im Rahmen des Forschungsprojekts zur Förderung des öffentlichen Diskurses über Vertrauen in KI entstanden. ALAIT wurde vom österreichischen Bundesministerium für Innovation, Mobilität und Infrastruktur (BMIMI) in Auftrag gegeben, die Förderabwicklung erfolgt über die FFG.

Vertrauen in KI durch Wissensvermittlung fördern

„Künstliche Intelligenz verändert unsere Wirtschaft und Gesellschaft tiefgreifend. Bei dem Vordringen der Technologie treffen auch Ängste und Hoffnungen in der Gesellschaft aufeinander. Künstliche Intelligenz bringt uns dann Fortschritt, wenn ihr Einsatz nachvollziehbar und vertrauenswürdig bleibt. Daher sind für mich die Themen Information, Aufklärung und Beratung essenziell. Das Projekt ALAIT unterstützt dabei, Risiken bewusst zu reflektieren und die neuen Chancen zu nutzen“, so Innovationsminister Peter Hanke.

Die ALAIT-Dossiers bieten nicht nur tiefgehende Einblicke in die Funktionsweise und Möglichkeiten von KI im jeweiligen Einsatzgebiet, sondern beleuchten auch die damit verbundenen ethischen und gesellschaftlichen Herausforderungen. Die Dossiers richten sich an Entscheidungsträger:innen, Wissenschafter:innen und alle Interessierten, die sich mit der verantwortungsvollen Nutzung von KI-Technologien auseinandersetzen.

Hate Speech Detection: KI-Systeme gegen Hass im Netz

Das erste neue Dossier widmet sich der KI-gestützten Erkennung beleidigender Aussagen in sozialen Medien und bewertet seinen Einsatz. Online-Plattformen setzen aufgrund gesetzlicher Verpflichtungen in Europa vermehrt KI-Systeme zur Erkennung und Entfernung von Hassrede ein. Diese Technologie verspricht, die digitale Kommunikation sicherer und inklusiver zu gestalten.

Zu den Chancen zählen eine verbesserte Moderation von Inhalten, die Reduktion psychischer Belastungen für Content-Moderator:innen und ein angenehmeres Erlebnis für Nutzer:innen der Plattformen. Besonders hervorzuheben ist die Möglichkeit, durch KI die enorme Menge an problematischen Inhalten effizient zu bewältigen und gleichzeitig die Einhaltung gesetzlicher Vorgaben wie des Digital Services Act zu unterstützen.

Doch auch die Risiken sind nicht zu unterschätzen: KI-Systeme kämpfen mit Kontextverständnis, was zu Fehlklassifikationen führen kann. Ironie, Sarkasmus oder verschlüsselte Sprache bleiben oft unentdeckt, während harmlose Inhalte fälschlicherweise als beleidigend eingestuft werden. Dies kann die Meinungsfreiheit einschränken und marginalisierte Gruppen weiter benachteiligen. Zudem birgt die mangelnde Transparenz der Systeme die Gefahr, dass Entscheidungen nicht nachvollziehbar sind. Für den Praxiseinsatz betont das Dossier deshalb die Notwendigkeit menschlicher Aufsicht und kultureller Sensibilität.

Predictive Analytics: Unterstützung bei Vergabe von staatlichen Hilfen

Das zweite Dossier untersucht den Einsatz von Predictive Analytics in der öffentlichen Vergabe von staatlichen Transferleistungen wie etwa Familienbeihilfe, Sozialhilfe oder Wohnbeihilfe. Hier wird KI eingesetzt, um Muster in Daten zu erkennen und Vorhersagen zu treffen, die die Entscheidungsfindung bei Ausschreibungen und Vergaben unterstützen können. Die Vorteile sind offensichtlich: Durch die Analyse großer Datenmengen können Prozesse beschleunigt, Kosten gesenkt und die Transparenz erhöht werden. Besonders in komplexen Vergabeverfahren bietet Predictive Analytics die Möglichkeit, Risiken frühzeitig zu identifizieren und Entscheidungen datenbasiert zu optimieren.

Dennoch gibt es auch hier Herausforderungen. Die Qualität der zugrunde liegenden Daten ist entscheidend, da Verzerrungen oder unvollständige Informationen zu systematischen Falschentscheidungen führen können. Zudem besteht die Gefahr, dass durch den Einsatz von KI die menschliche Kontrolle über Entscheidungen verloren geht, da Menschen dazu neigen, Maschinen mehr zu vertrauen. Im Dossier wird hervorgehoben, dass die Abwägung, welche Merkmale einer Person in algorithmischen Systemen verarbeitet werden und zur Entscheidungsfindung beitragen, unabdingbar ist. Zudem ist Transparenz, die bereits im Design des Systems angelegt ist, notwendig, damit die Technologie fair und für alle nachvollziehbar eingesetzt wird.

Die KI-Trust-Dossiers stehen auf der Projektseite zum Download zur Verfügung.

Service: Weitere Informationen zum Projekt ALAIT

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS. www.ots.at
(C) Copyright APA-OTS Originaltext-Service GmbH und der jeweilige Aussender. APA - Austria Presse Agentur

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.