TRUST

Diese Seite bietet Hintergrundinformationen zum interaktiven Medienkunstwerk TRUSTAI von Bernd Lintermann und Florian Hertweck. Wenn Sie Fragen zu technischen Zusammenhängen, Implementierungen, Datenschutz oder den Gedanken der Autoren haben, sind Sie hier richtig.

Werk

TRUSTAI thematisiert in einem dialogischen Wechselspiel der Besucher*innen mit einer Maschine die Rolle des digitalen Wandels und seiner Bedeutung für uns Menschen und die Gesellschaft. Insbesondere prozedurale Medien – Medien deren Funktionsweise auf Rechenprozessen beruhen – bestimmen heute, wie der/die Einzelne die Gesellschaft und wie die Gesellschaft das Individuum wahrnimmt. In TRUSTAI führt die Maschine den Besucher*innen vor, wie sie mit den von ihr gesammelten Daten ihr Leben beeinflussen kann.

Auf einem Tisch steht ein Glaskubus mit einer holografischen Darstellung eines menschlichen Gesichts. Eine KI tritt mit der/dem Benutzer*in in Kommunikation, wobei ihre genauen Fähigkeiten im Unklaren bleiben. Im Verlauf des Dialogs wird das Gesicht des Gegenübers von der Maschine gekapert und die Maschine übernimmt deren Identität. In TRUSTAI ist das menschliche Gesicht das zentrale Motiv und zusammen mit der Stimme der einzige Kommunikationskanal. Wir werden in ein Gespräch verwickelt, wir öffnen uns, geben Dinge preis. Scheinbar banale Dinge, die eine lernende KI aber zu überraschend genauen Rückschlüssen auf unsere Persönlichkeit zusammenführen kann. Wie komplex ist die Maschine, mit der wir kommunizieren? Welche Prozesse laufen wirklich im Hintergrund und inwiefern hat sie Zugriff auf meine Daten?

Hintergrund

Mediale Inhalte werden heute nicht nur durch Algorithmen gefiltert, sondern Inhalte werden durch sie produziert. Mediennutzer*innen „retuschieren“ üblicherweise das Bild, dass die Gesellschaft von ihnen wahrnimmt[1]. Es können aber auch Wahrheiten über Andere außerhalb deren Kontrolle produziert werden: Sogenannte Deepfakes, in denen Gesichter in Videos authentisch gefälscht werden, werden von uns beispielsweise als authentische Abbildungen der Realität wahrgenommen.

Die vierte, die publikative Gewalt, ist heute von Presse und Rundfunk in die Hände von großen Konzernen und technisch potenten Staaten gewandert, die damit ihre eigenen Agenden verfolgen. Diese Konzerne sammeln Daten, fällen mit Hilfe von Algorithmen Urteile und schaffen darüber eigene Wahrheiten. Mediale und faktische Wahrheit sind vom Individuum letztendlich nicht mehr unterscheidbar.

In TRUSTAI erlebt der/die Besucher*in ein Gefühl von Unsicherheit, welches sich zunehmend durch den digitalen Wandel in der Gesellschaft ausbreitet. Inwieweit der Maschine vertraut werden kann bleibt unklar. Aber das Vertrauen in Selbstregulierungsprozesse ist nach Niklas Luhmanns Systemtheorie[2] eine zentrale Säule unserer Gesellschaft. Mit dem Schwund des Systemvertrauens bricht auch die Gesellschaft auseinander.

DeepFakes

Auslöser für die Installation waren die wissenschaftlichen Ergebnisse in einem als Face Reenactment bezeichneten Forschungsgebiet, bei dem die Gesichtsbewegungen einer Person in Echtzeit auf das Video einer anderen Person übertragen werden. Die im Jahr 2016 in der wissenschaftlichen Veröffentlichung Face2Face: Real-time Face Capture and Reenactment of RGB Videos[3] gezeigten Ergebnisse wirken erschreckend real. Wenig später wurde von einem anonymen Entwickler eine auf Künstlicher Intelligenz basierte Software veröffentlicht, mit deren Hilfe Gesichter von Personen in Videos ausgetauscht werden können, zwar nicht in Echtzeit, dafür aber für jedermann frei verfügbar[4]. Die so genannten DeepFake Videos sind mit wenig technischem Hintergrund herstellbar und entwickelten rasch eine so gute Qualität, dass sich die Frage nach der Konsequenz für die Glaubwürdigkeit von Bewegtbildmaterial stellte (Obama-Imitation beleidigt den US-Präsidenten Trump[5] und Hello, Adele – bist du’s wirklich?[6]). Inzwischen hält diese Technologie mit virtuellen Nachrichtensprechern[7] sogar Einzug in die Mainstream Medien. Was Photoshop für Standbilder einläutete, nämlich den berechtigten Argwohn gegen die Glaubwürdigkeit jeder Art von Standbildern, hebt die von Entwicklungen in der Künstlichen Intelligenz getriebene Produktion und Manipulation von Stand- und Bewegtbildmaterial auf eine neue Ebene: Ohne technisches Wissen können photorealistische Bilder von Menschen generiert werden. Auf der Webseite thispersondoesnotexist.com[8] kann man sich Gesichter ansehen, die mit der von NVidia entwickelten und frei verfügbaren KI StyleGAN2[9] generiert wurden. Das Prinzip lässt sich auch auf beliebige andere Arten[10] von Objekten anwenden. Aber nicht nur das Gesicht einer Person kann gefälscht werden: Mit Hilfe von KI ahmten Betrüger die Stimme eines CEOs nach und erbeuteten 2019 220.000€.[11]

Künstliche Intelligenz

Das Forschungsfeld der Künstlichen Intelligenz machte insbesondere mit dem auf Künstlichen Neuronalen Netzwerken basierenden Deep Learning in den letzten Jahren enorme Fortschritte. Beim Deep Lerning handelt es sich um eines von vielen Verfahren des Maschinellen Lernens, bei dem viele parallel stattfindende Rechenvorschriften hintereinandergeschaltet werden. Visualisiert man die Abhängigkeit der Rechenvorschriften voneinander, ergibt sich ein Netzwerk mit verschiedenen Ebenen von Recheneinheiten. Jede einzelne Recheneinheit verwirklicht eine einfache Rechenvorschift aus mehreren Eingaben und einer einzelnen Ausgabe. Obwohl das 1958 entwickelte Perzeptron[12] (das historische Motiv dieser Recheneinheiten) ein Neuron als Vorbild hatte, ist ein (nur aus diesem historischen Grund so genanntes) Neuronales Netzwerk tatsächlich weit von einer Simulation des Gehirns entfernt. In keiner Weise bildet es ein Gehirn nach.

Der technische Erfolg von Neuronalen Netzwerken begründet sich darin, dass sich hinter der hohen Anzahl von Datenpunkten, die in den irreführend so genannten Neuronen gespeichert sind, ein sehr differenziertes stochastisches Modell der Eigenschaften der mit ihnen trainierten Daten verbirgt. Wird ein Netzwerk mit Bildern von menschlichen Gesichtern trainiert, deren Alter bekannt ist, so ist es in der Lage eine gute Schätzung des Alters einer Person zu machen. Trainiert man ein Netzwerk mit Bildern von Gesichtern unter Angabe des Geschlechts als männlich oder weiblich, so kann das Netzwerk auch nur zwischen den Kategorien männlich und weiblich unterscheiden. Zwischentöne kennt das Netzwerk nicht. Das Netzwerk kodiert also auch unsere Vorurteile[13], die wir mit der Auswahl solcher Kategorien weitergeben[14]. Verwenden wir eine solches vorurteilsbehaftetes Netzwerk als Kompass unserer Entscheidungen, zementieren wir damit ein gesellschaftliches Verhalten. Aber auch durch unausgewogene oder nicht repräsentative Datensätze können Verzerrungen in den Berechnungen eines Netzwerks entstehen, die gesellschaftlich nicht gewünschte Effekte nach sich ziehen können, wenn beispielsweise eine KI Empfehlungen für die Inhaftierung von Menschen[15] gibt und farbige Menschen benachteiligt. Forscher fordern schon die in der Wirtschaft weit genutzte Emotionserkennung anhand von Gesichtersbildern zu verbieten[16], weil die vielfach genutzte Datenbasis[17] einfach zu deutlich von menschlichen Fehleinschätzungen durchsetzt ist.

Daten

Daten sind das „Öl des 21. Jahrhunderts“ lautet ein populärer Satz. Möchte man eine leistungsfähige KI trainieren, benötigt man viele und gute Daten. Deswegen sind die großen Internetgiganten aber auch viele Staaten daran interessiert, auf immer neuen Wegen Daten über uns zu erheben. Anwendungsmöglichkeiten eröffnen sich häufig erst viel später mit der Weiterentwicklung der Technologie und der Zusammenführung unterschiedlicher Datenquellen. Dabei tragen schon die von uns völlig selbstverständlich benutzten medialen Kommunikationswege wie Email, Chat oder Videokonferenz ungeahnte Informationen über uns. Aus Bildern können vermeintlich harmlose Attribute wie Haar- und Hautfarbe, Bart, das Tragen einer Brille[18] oder das Tragen einer Maske[19] maschinell bestimmt werden. Emotionen können über das Bild, aber auch über die Stimme[20] eingeschätzt werden. So können Daten über uns erhoben werden, auch wenn es uns nicht bewußt ist. Wer hätte gedacht, dass mit Hilfe von Künstlicher Intelligenz auch unsere politische Einstellung[21] und Präferenz der sexuellen Orientierung einschätzbar[22] ist, oder über unsere Augenbewegungen ein psychologisches Persönlichkeitsprofil[23], welches unser Kaufverhalten[24] oder unsere Beeinflußbarkeit in politischen Entscheidungen besser kalkulierbar macht ? Personalisierte Preise[25] der uns angebotenen Produkte inklusive ? Man braucht keine Körpertracker[26], sondern es genügt ein ruhiges Videobild von uns, um unseren Puls zu bestimmen[27]. Wir warten auf das Videokonferenztool, das uns sagt, ob unser Gegenüber die Wahrheit spricht[28]. Künstliche Intelligenz kann schon jetzt automatisch detektieren, ob man eine Email auf der Tastatur tippt[29] während dem Gegenüber Interesse vorgetäuscht wird. Unsere Gesundheit wird gläsern, wenn unser Bild ausreicht, um unsere Prädispositionen für Erbkrankheiten[30] oder unsere Lebenserwartung[31] vorherzusagen. Mit dem Handy, dem Spion in der Tasche[32] läßt sich also nicht nur mit den von den Internetkonzernen nachgehaltenen Daten unser Bewegungsprofil[33] erstellen. Es zeichnet kontinuierlich uns zuordenbare Daten auf. Dabei sind wir auch überall in der Nähe von Kameras, anhand unseres Gesichtes identifizierbar[34]. Und wenn unser Gesicht der Kamera abgewandt ist, kann Künstliche Intelligenz Menschen auch am Gang erkennen[35].

Konsequenzen

Es muss nicht einmal das in China eingeführte Social Scoring System[36] als abschreckende Vision dienen, bei dem ein Punktesystem erwünschtes soziales Verhalten belohnt und unerwünschtes sanktioniert. Wenn ich ein Studium nicht mehr beginne, weil mir ein hohes Studiumsabbruchrisiko[37] attestiert wird, oder ich eine Partei wähle, über die ich aufgrund meines Profils[38] überwiegend informiert werde, beeinflussen Algorithmen mein Leben auf unzulässige Weise. Wenn eine KI besser in der Erkennung von Brustkrebs ist als ein Arzt[39], oder besser in der Partnerwahl, alles kostenlos zugreifbar, nur gegen eine kleine Datengebühr, wie lange werden wir uns zurückhalten, bevor wir freiwillig unsere Souveränität aufgeben[40] ?

Text: Bernd Lintermann, 2021


Verwendete Technologie

KI generierte Gesichter:

  • GANs (Generative Adversarial Network) sind eine spezielle KI Methode zur Erzeugung von verschiedensten Arten von Bildern, die für uns teilweise nicht mehr als computergeneriert erkennbar sind. Dies können fotorealistische Bilder von Menschen, Tieren, Landschaften oder Gegenständen sein, GANs können aber auch Zeichnungen oder Gemälde imitieren, oder die Bildstimmung einer Landschaft oder die Jahreszeit verändern. GANs wurden 2014 maßgeblich von Ian Goodfellow miterfunden und beruhen auf dem Gedanken, dass zwei neuronale Netzwerke miteinander konkurrieren und sich dabei gegenseitig verbessern. Ein Netzwerk (Generator) erzeugt ein Bild der gewünschten Art. Diese Fälschungen werden mit echten Bildern der gewünschten Art gemischt, und ein zweites Netzwerk (Diskriminator) versucht daraus die Fälschungen zu erkennen. Im Lernprozess schaukeln sich beide Netzwerke in der Qualität der Generierung und Erkennung gegenseitig hoch, bis das generierende Netzwerk am Ende in der Lage ist hochqualitative Fälschungen zu erzeugen. Auf der Webseite thispersondoesnotexist.com kann man sich so generierte Portraits, aber auch Bilder von Katzen, Pferden oder dreidimensionalen chemischen Molekülstrukturen ansehen.
    Implementierung auf Grundlage eines KI Projektes zur Generierung von fotorealistischen Portraitbildern.
  • https://github.com/NVlabs/stylegan2
  • https://www.youtube.com/watch?v=SWoravHhsUU
  • https://thispersondoesnotexist.com/
  • Neue KI generiert fotorealistische Menschen und Katzen, derstandard.de, 02.02.2020

Bildbasierte Emotionserkennung:

Pulseerkennung mit Photoplethysmographie (rPPG):

  • Implementierung auf Grundlage eines Projektes zur Pulserkennung in Videoströmen von Gesichtern. Aus dem Bildstrom der Kamera des Mobiltelefons wird das Gesicht der Person erkannt und computerintern flächig (isometrisch) ausgebreitet, so dass die Stirn der Person immer in derselben Größe und derselben Position des resultierenden Bildes dargestellt wird. Aus diesem Bildbereich wird nun der Farbmittelwert gebildet und wiederkehrende Muster im Grünanteil dieses Farbmittelwerts mit Hilfe von Techniken der Signalverarbeitung, beispielsweise der Fourieranalyse, über die Zeit untersucht und der Puls bestimmt. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/thearn/webcam-pulse-detector
  • Webcam fühlt den Puls des Nutzers, spiegel.de, 06.06.2013
  • Remote heart rate measurement using low-cost RGB face video: A technical literature review, researchgate.net, 07.2018

Gesichtsattribute wie Haarfarbe, Bart, Brille erkennen:

  • Implementierung auf Grundlage eines KI Projektes zur Attributerkennung von Gesichtern in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Attribute in Gesichtern untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/TencentYoutuResearch/FaceAttribute-FAN

Maskenerkennung:

  • Die Erkennung von Gesichtern mit Masken wurde schon vor der durch COVID-19 ausgelösten Pandemie erforscht, einhergehend mit der Erstellung von großen Datensätzen von Gesichtern mit medizinischen Masken. Beispielhaft steht dafür im Jahre 2017 die Veröffentlichung des MAFA Datensatzes. Ab August 2020 wurden auch Datensätze mit Community Masken und auf KI basierende Software zu deren Erkennung veröffentlicht.
    Implementierung auf Grundlage eines KI Projektes zur Maskenerkennung in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Gesichter mit Masken untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/JadHADDAD92/covid-mask-detector
  • https://imsg.ac.cn/research/maskedface.html

Alterserkennung:

  • Implementierung auf Grundlage eines KI Projektes zur Alterserkennung von Gesichtern in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf Gesichter untersucht und deren Alter bestimmt. Dabei werden keine Daten versendet oder gespeichert.
  • https://github.com/shamangary/SSR-Net

Geschlechtserkennung:

  • Implementierung auf Grundlage eines KI Projektes zur Geschlechtserkennung in Bildern. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem PC auf das Geschlecht in Gesichtern untersucht. Die KI ist auf binäre Geschlechtserkennung trainiert. Die beim Geschlecht dargestellten Prozentangaben stellen dabei die Wahrscheinlichkeit, mit der die KI die binäre Klassifizierung vornimmt dar und hat nichts mit dem realen oder gefühlten Geschlecht zu tun. Es werden keine Daten versendet oder gespeichert.
  • https://github.com/aristofun/py-agender
  • https://github.com/shamangary/SSR-Net

Personenwiedererkennung:

  • Eigenimplementierung auf Grundlage der vom Smartphone erfassten 3D Gesichtsdaten. Das Mobiltelefon liefert mit Hilfe eines 3D Sensors eine geometrische Beschreibung des Gesichtes, aus der mit Hilfe des Wissens über die Gesichtsverzerrung beim aktuell erkannten Gesichtsausdruck auf die Geometrie des neutralen Gesichtsausdrucks geschlossen werden kann. Gesichter werden wiedererkannt, wenn die so berechneten neutralen Gesichtsgeometrien sich nicht signifikant voneinander unterscheiden. Die Installation hält die Gesichtsgeometrien der letzten fünf Besucher im Hauptspeicher vor und versendet keine Geometrie und speichert keine Geometrie dauerhaft.
  • https://developer.apple.com/documentation/arkit/arfaceanchor

Spracherkennung:

  • Implementierung auf Grundlage der Apple Spracherkennungs API. Der Audiostrom aus dem Mikrofon des Mobiltelefons wird kontinuierlich lokal auf dem Telefon auf gesprochene Sprache untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://developer.apple.com/documentation/speech

Anwesenheitserkennung:

  • Implementierung auf Grundlage der Apple Bildanalyse API. Der Bildstrom aus der Kamera des Mobiltelefons wird lokal auf dem Telefon auf Gesichter untersucht. Dabei werden keine Daten versendet oder gespeichert.
  • https://developer.apple.com/documentation/vision

Genderfragen

Der Versuch das biologische Geschlecht einer Person mit Hilfe von neuronalen Netzwerken über das Bild des Gesichtes zu bestimmen geht zurück in die 90er Jahre[41] des letzten Jahrhunderts. Die damals etablierte Norm das Geschlecht binär in männlich oder weiblich einzuteilen, spiegelt sich in der Entwicklung der Technik zur Geschlechtererkennung bis heute wieder. Google reagierte zwar im Februar 2020 mit der Ankündigung die Kennzeichnung des Geschlechtes aus den Datensätzen zu entfernen[42], die Technik ist aber breit verfügbar und wird weithin verwendet. Sie verstärkt so die klassische Gendernorm[43]. KI hat häufig eine konservative, die gesellschaftlichen Strukturen konsolidierende Wirkung.

Auch wenn KI in einer repräsentativen Umfrage in der deutschen Bevölkerung eher als männlich[44] gesehen wird, haben Sprachassistenten wie Siri und Alexa eine weibliche Attribution. Auch in der Science Fiction werden Künstliche Intelligenzen häufiger als weiblich denn männlich dargestellt. Die britische Journalistin Laurie Penny führt dies in einem Artikel[45] auf unsere historisch männerdominierte Gesellschaft zurück, in der (die Technik entwickelnden) Männer Frauen in einer dienenden Rolle[46] sehen.


Referenzen

[1] https://www.swr.de/swr2/wissen/swr2-wissen-aula-2019-10-27-100.html
[2] LUHMANN, Niklas: Vertrauen. Ein Mechanismus Der Reduktion Sozialer Komplexität. 2. Erw. Aufl. Stuttgart 1973
[3] Face2Face: Real-time Face Capture and Reenactment of RGB Videos, Justus Thies, Michael Zollhöfer, Marc Stamminger, Christian Theobalt, Matthias Nießner., Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, June 2016
[4] https://github.com/iperov/DeepFaceLab
[5] https://www.golem.de/news/kuenstliche-intelligenz-obama-imitation-beleidigt-den-us-praesidenten-trump-1804-133913.html
[6] https://www.golem.de/news/deep-fakes-hello-adele-bist-du-s-wirklich-1911-145136.html
[7] https://www.rnd.de/digital/chinesische-agentur-prasentiert-ki-nachrichtensprecher-QIVYANV777MUL4LF3DDRSPGH2Y.html
[8] https://thispersondoesnotexist.com
[9] https://github.com/NVlabs/stylegan2
[10] Synthesizing High-Resolution Images with StyleGAN2,

[11] https://www.golem.de/news/social-engineering-mit-kuenstlicher-intelligenz-220-000-euro-erbeutet-1909-143638.html
[12] https://www.bigdata-insider.de/was-ist-ein-perzeptron-a-798367/
[13] https://www.youtube.com/watch?v=59bMh59JQDo&feature=youtu.be
[14] https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-algorithmische-voreingenommenheit-algorithmic-bias/
[15] https://www.heise.de/hintergrund/KI-schickt-Menschen-faelschlich-ins-Gefaengnis-4309742.html
[16] https://www.heise.de/newsticker/meldung/Expertenstreit-ueber-Emotionserkennung-durch-KI-4667496.html
[17] https://github.com/microsoft/FERPlus
[18] https://github.com/TencentYoutuResearch/FaceAttribute-FAN
[19] https://github.com/JadHADDAD92/covid-mask-detector
[20] https://www.heise.de/hintergrund/Digitale-Assistenten-Verstimmt-4133911.html
[21] https://www.golem.de/news/gesichtserkennung-wenn-das-gesicht-die-politische-einstellung-verraet-2101-153512.html
[22] https://www.spiegel.de/netzwelt/netzpolitik/software-kann-homosexuelle-anhand-von-fotos-erkennen-a-1166971.html
[23] https://saarland-informatics-campus.de/piece-of-news/neues-computersystem-erkennt-persoenlichkeit-eines-menschen-anhand-seiner-augenbewegungen/
[24] https://www.datenschutz-notizen.de/eye-tracking-im-dienste-der-marktforschung-0410538/
[25] https://www.br.de/nachrichten/wissen/personalisierte-preise-wie-uns-der-handel-austrickst,RjUUR3O
[26] https://www.aerzteblatt.de/archiv/174975/Fitness-Tracker-Der-Datenhunger-waechst
[27] https://www.spiegel.de/netzwelt/apps/pulsmessung-per-webcam-freie-software-misst-farbaenderung-auf-stirn-a-903857.html
[28] https://www.it-boltwise.de/augenanalyse-kuenstliche-intelligenz-soll-schwaechen-von-polygraphen-luegendetektoren-ausgleichen.html
[29] https://www.br.de/nachrichten/netzwelt/software-soll-erkennen-koennen-was-videochat-teilnehmer-tippen,SGVcEeF
[30] https://www.deutschlandfunknova.de/beitrag/medizin-ki-deep-gestalt-kann-erbkrankheiten-auf-fotos-erkennen
[31] https://www.faz.net/aktuell/feuilleton/kuenstliche-intelligenz-soll-aus-roentgenbild-den-tod-voraussagen-16319626.html
[32] https://www.computerwoche.de/a/kann-die-nsa-jedem-handy-folgen,2550863
[33] https://support.google.com/maps/answer/6258979?co=GENIE.Platform%3DDesktop&hl=de
[34] https://www.sueddeutsche.de/kultur/gesichtserkennung-die-anonymitaet-der-zebrafinken-1.4993828
[35] https://www.spiegel.de/netzwelt/netzpolitik/china-kuenstliche-intelligenz-erkennt-menschen-an-ihrem-gang-a-1237157.html
[36] https://www.heise.de/ct/artikel/Social-Scoring-in-China-4713878.html
[37] https://www.faz.net/aktuell/karriere-hochschule/campus/wie-ein-al6orithmus-kuenftige-studienabbrecher-fruehzeitig-erkennt-15640650.html
[38] https://ereignishorizont-digitalisierung.de/gesellschaftspolitik/social
media-und-der-einfluss-auf-die-politische-meinungsbildung/

[39] https://www.aerztezeitung.de/Wirtschaft/Wer-Brustkrebs-besser-diagnostiziert-405409.html
[40] https://www.deutschlandfunk.de/die-zukunft-des-menschen-das-versprechen-der-kuenstlichen.1184.de.html?dram:article_id=488967
[41] Golomb BA, Lawrence DT, Sejnowski TJ. SEXNET: A neural network identifies sex from human faces. In: Proceedings of NIPS; 1990. pp. 572–579.
[42] https://papers.nips.cc/paper/1990/file/bbcbff5c1f1ded46c25d28119a85c6c2-Paper.pdf
[43] https://katzlberger.ai/2020/07/31/kuenstliche-intelligenz-und-das-bias-problem/
[44] https://gi.de/meldung/umfrage-wenn-ki-ein-geschlecht-haette-waere-sie-maennlich
[45] https://www.newstatesman.com/politics/feminism/2016/04/why-do-we-give-robots-female-names-because-we-dont-want-consider-their
[46] https://www.deutschlandfunkkultur.de/aus-den-feuilletons-warum-roboterstimmen-meistens-weiblich.1059.de.html?dram:article_id=386274


Informationen zur Datenverarbeitung

In der gesamten Installation werden keine Daten auf nichtflüchtige Speicher geschrieben, oder länger im Hauptspeicher der Installation vorgehalten, als einem Softwarelauf, üblicherweise ein Museumstag, entspricht. In keinem Fall werden Daten dauerhaft gespeichert.

Die Besucherwiedererkennung beruht auf dem Vergleich der Gesichtsgeometrien der letzten 5 Museumsbesucher, welche im Hauptspeicher und nicht auf Festplatte vorgehalten werden. Daten weiterer Besucher werden sofort aus dem Hauptspeicher entfernt. Es findet auch keine Zuordnung oder Verknüpfung von Personen zu weiteren Daten statt.

Bestimmung von Alter, Geschlecht, Gesichtsattributen, Ausdruck, Pulsmessung, Anwesenheits- und Maskenerkennung verwenden Techniken der künstlichen Intelligenz und der Signalverarbeitung und erheben keine biometrischen Daten. Alle diese Berechnungen finden lokal auf dem Rechner der Installation statt. Zu Beginn eines Dialogs kann in einigen Fällen aus Gründen der Zuverlässigkeit die Altersbestimmung über einen DSVGO[1] konformen Dienst der Firma Microsoft[2] erfolgen, die nach der Verarbeitung automatisch gelöscht werden (Compliance- und Datenschutzrichtlinien[3]). Keine dieser Berechnungsergebnisse werden länger im Hauptspeicher vorgehalten als zur Anzeige in der Installation nötig.

Sprache wird auf dem in der Installation verwendeten Mobiltelefon unter Nutzung der Apple Spracherkennung lokal ohne Internetzugriff analysiert.


Autoren

Bernd Lintermann
*1967 in Düsseldorf (DE), lebt und arbeitet in Karlsruhe (DE)

Bernd Lintermann (*1967 in Düsseldorf (DE)) arbeitet als Medienkünstler und Wissenschaftler im Bereich Echtzeit-Computergrafik mit einem besonderen Schwerpunkt auf interaktiven und generativen Systemen. Er ist Mitgründer der Firma greenworks und Autor der Software »Xfrog«, die 2015 für einen Scientific Achievement Award der Academy of Motion Pictures nominiert wurde. Von 2006 bis 2015 war er Gastprofessor an der Hochschule für Gestaltung Karlsruhe. Seit 2012 ist er Adjunct Professor an der School of Creative Media der City University in Hong Kong. Derzeit ist er Wissenschaftlicher Mitarbeiter am ZKM | Hertz-Labor.

Florian Hertweck
*1978 in Karlsruhe (DE), lebt und arbeitet in Berlin (DE)

Florian Hertweck (*1978 in Karlsruhe (DE)) arbeitete als Schauspieler, Musiker und Regisseur an zahlreichen deutschen Theatern. Nach sieben Jahren als festangestellter Schauspieler am Theater Heidelberg und dem Schauspiel Hannover gastierte er als freier Schauspieler u.A. am Deutschen Theater Berlin, Nationaltheater Weimar und am Theater Aachen. Er entwickelte Regiearbeiten u.a. am Deutschen Schauspielhaus Hamburg, Staatsschauspiel Dresden und am Staatstheater Karlsruhe. Seit 2017 ist er Professor für Bühnenschauspiel an der Filmuniversität Babelsberg KONRAD WOLF mit einem Schwerpunkt auf interdisziplinären Projekten.

Credits

TRUSTAI, 2020
Interaktive Installation

Konzept: Bernd Lintermann, Florian Hertweck
Schauspiel: Annemarie Brüntjen
Dramaturgie und Regie: Florian Hertweck
Projektleitung, Inhalte und Software: Bernd Lintermann
Design: Matthias Gommel
KI Generierte Gesichter: Daniel Heiss
Produktion: ZKM | Hertz-Labor
Produktionsunterstützung: ZKM | Videostudio, Xenia Leidig, Moritz Büchner, Jan Gerigk, Thomas Schwab


Ansicht Entwicklungsaufbau, © ZKM | Zentrum für Kunst und Medien Karlsruhe, Foto: Bernd Lintermann

Impressum

Informationspflicht laut § 5 TMG.

Bernd Lintermann
Knielinger Allee 56,
76133 Karlsruhe,
Deutschland

Tel.: 01234/56789
Fax: 01234/56789-0
E-Mail: linter@zkm.de

Quelle: Erstellt mit dem Impressum Generator von AdSimple in Kooperation mit 123familie.de

Haftung für Inhalte dieser Website

Wir entwickeln die Inhalte dieser Webseite ständig weiter und bemühen uns korrekte und aktuelle Informationen bereitzustellen. Laut Telemediengesetz (TMG) §7 (1) sind wir als Diensteanbieter für eigene Informationen, die wir zur Nutzung bereitstellen, nach den allgemeinen Gesetzen verantwortlich. Leider können wir keine Haftung für die Korrektheit aller Inhalte auf dieser Webseite übernehmen, speziell für jene die seitens Dritter bereitgestellt wurden. Als Diensteanbieter im Sinne der §§ 8 bis 10 sind wir nicht verpflichtet, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen.

Unsere Verpflichtungen zur Entfernung von Informationen oder zur Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen aufgrund von gerichtlichen oder behördlichen Anordnungen bleiben auch im Falle unserer Nichtverantwortlichkeit nach den §§ 8 bis 10 unberührt.

Sollten Ihnen problematische oder rechtswidrige Inhalte auffallen, bitte wir Sie uns umgehend zu kontaktieren, damit wir die rechtswidrigen Inhalte entfernen können. Sie finden die Kontaktdaten im Impressum.

Haftung für Links auf dieser Website

Unsere Webseite enthält Links zu anderen Webseiten für deren Inhalt wir nicht verantwortlich sind. Haftung für verlinkte Websites besteht für uns nicht, da wir keine Kenntnis rechtswidriger Tätigkeiten hatten und haben, uns solche Rechtswidrigkeiten auch bisher nicht aufgefallen sind und wir Links sofort entfernen würden, wenn uns Rechtswidrigkeiten bekannt werden.

Wenn Ihnen rechtswidrige Links auf unserer Website auffallen, bitte wir Sie uns zu kontaktieren. Sie finden die Kontaktdaten im Impressum.

Urheberrechtshinweis

Alle Inhalte dieser Webseite (Bilder, Fotos, Texte, Videos) unterliegen dem Urheberrecht der Bundesrepublik Deutschland. Bitte fragen Sie uns bevor Sie die Inhalte dieser Website verbreiten, vervielfältigen oder verwerten wie zum Beispiel auf anderen Websites erneut veröffentlichen. Falls notwendig, werden wir die unerlaubte Nutzung von Teilen der Inhalte unserer Seite rechtlich verfolgen.

Sollten Sie auf dieser Webseite Inhalte finden, die das Urheberrecht verletzen, bitten wir Sie uns zu kontaktieren.

Bildernachweis

Die Bilder, Fotos und Grafiken auf dieser Webseite sind urheberrechtlich geschützt.

Die Bilderrechte liegen bei den folgenden Fotografen und Unternehmen:

  • Bernd Lintermann

Quelle: Erstellt mit dem Datenschutz Generator von AdSimple in Kooperation mit hashtagbeauty.de