Die Wissensdatenbank Arbeit ist ein gebündeltes Informationsangebot für Arbeiternehmer:innen und enthält rund 19.000 Podcasts von cba.media sowie ca. 300 Artikel zum Thema aus weiteren vertrauenswürdigen Quellen.
cba.media ist eine gemeinnützige Podcastingplattform und Zeitarchiv, das seit dem Jahre 2000 vor allem zivilgesellschaftlich produzierte Inhalte bereitstellt. Das breite Themenfeld Arbeit ist dabei eine zentrale Querschnittsmaterie, sodass eine ganze Reihe an unterschiedlichsten Aspekten zum Thema hier kontinuiertlich journalistisch und redaktionell aufbereitet und zur Diskussion gestellt werden.
Entwicklungs- und Experimentierfeld für einen diskriminierungsfreien Recommender
Die Wissensdatenbank macht diese arbeitnehmer:innen-spezifischen Inhalte sichtbarer und mit Hilfe eines kontextbasierten Such- und Empfehlungssystems leichter zugänglich. Gleichzeitig stellt die Seite ein praktisches Experimentierfeld dar, mit dem wir anhand eines thematisch eingegrenzten Bestands neue Wege von Empfehlungsalorithmen und Suchdesigns erproben und entwickeln. Besonderes Augenmerk liegt dabei auf Fairness und Diskriminierungsfreiheit.
Faire Algorithmen: Hintergrund und Ausgangsproblematik
Vorschlagssysteme („Recommender“) sind Algorithmen, die anhand des Nutzungsverhaltens, anhand persönlicher Interessen und Vorlieben Inhalte sortieren, mit dem Nutzungsverhalten anderer Nutzer:innen vergleichen und entsprechend Inhalte vorschlagen und gleichermaßen ausblenden. Das bekannteste und wohl meistgenutzte ist die Suchmaschine Google, die, ebenso wie der weitaus größte Teil der Big Tech Platfformen – seien es Suchmaschinen wie Bing, Yahoo, soziale Medien wie Facebook & Instagram oder Medienplattformen wie Youtube, Spotify, uvam. – ihre Suchvorschläge und -empfehlungen im Sinne ihrer kommerziellen Geschäftsinteressen steuern. Diese auf Gewinnmaximierung ausgerichteten Algorithmen sind weitgehend intransparent, nicht Gegenstand einer öffentlichen Debatte im Sinne des allgemeinen informationellen und demokratischen Interesses und führen zu Effekten, die als Filterblasen und Echokammern bezeichnet werden. Besonders auf den großen Kommunikationsplattformen wie Facebook zeigt sich immer öfter das demokratiegefährdende Potential dieser Vorschlagssysteme, wie sich etwa am Beispiel des Skandals um Cambridge Analytica im Zuge der US Wahlen 2017 ablesen lässt.
Zusammenfassend sind die von BigTech Plattformen eingesetzten Recommender demokratiepolitisch gefährlich, da sie letztlich durch die starke Plattformmonopolisierung auch von einem maßgeblichen Teil der Arbeitnehmer:innen verwendet werden (müssen), so erheblich negativen Einfluss auf die alltägliche informationelle Selbstbestimmung ausüben und durch unzureichende staatliche Regulierung die User:innen in völliger Abhängigkeit zurücklassen, während gleichzeitig noch ihre persönlichen Daten monetarisiert werden. Generell werden diese Systeme an den genuinen Interessen von Nutzer:innen und Arbeitnehmer:innen vorbei entwickelt. Nutzer:innen sollten daher Einfluss darauf haben können, wie solche Vorschlagssysteme gestaltet werden und Einsicht in deren Funktionsweise nehmen können.
Dies zeigt einerseits den hohen Bedarf an die Einbindung von Arbeitnehmer:innen in die Ausgestaltung solcher Systeme und selbstbestimmter Governance-Strukturen. Auch wenn auf europäischer und nationalstaatlicher Ebene sukzessive Maßnahmen zur staatlichen Regulierung diskutiert und umgesetzt werden, ist es jedoch evident, dass diese Regulierungen längst nicht ausreichen, um an der Monopolstellung dieser Plattformen und Algorithmen etwas nachhaltig und in ausreichender Geschwindigkeit zugunsten einer Demokratisierung zu verändern.
Es bedarf daher an alternativen technischen Konzepten und frei verfügbaren Tools, die datenschutzfreundlich, datenschonend, grundrechts- und gemeinwohlorientiert sind und an Governanceprozessen, die die Funktionsweise solcher Systeme entlang eines Interesses von User*innen wie Arbeitnehmer*innen und der allgemeinen Öffentlichkeit ausrichten.
Auf dieser Seite erproben wir daher gemeinwohlorientierte, technische Ansätze von Personalisierungs- und Recommendersystemen und gehen den Fragen nach, nach welchen Maßstäben und Kriterien sie gestaltet werden müssen, damit sie diesem Interesse dienen.
Dieses Projekt (DEMPERE – Democratic Personalisation & Recommender for Employees) wurde ermöglicht und finanziert durch den Digifonds der Arbeiterkammer Wien.
Use Case bei „fairbydesign“
Zwischen 2022 und 2024 waren wir Projektpartner von „fAIr by design“, einem von der österreichischen Forschungsförderungsgesellschaft FFG finanziertes Projekt ua. der Universität Wien (Prof. Wendehorst), TU Wien, Rania Wazir eU und anderen, bei dem der Aufbau
einer Methodensammlung und die Entwicklung von Prüfsystemen für diskriminierungsfreie KI-Anwendungen im Mittelpunkt steht. Die Entwicklung des Recommenders war dabei einer der Use Cases, um das Prüfsystem auf bei cba verwendete Algorithmen und organisatorische Prozesse anzuwenden, um ein möglichst diskriminierungsfreies, sowie in Hinblick auf den AI Act rechtskonformes, algorithmisches System zu entwickeln.
Mehr zu diesem Projekt findest du unter https://fairbydesign.eu