Kapitel aus ‘Der kopierte Mensch – Ki im Wandel’

4.2. Neuronales Lernen

Die Dinge sind eher, wie sie jetzt sind, als wie sie jemals waren.

Dwight D. Eisenhower

Neuronales Lernen ahmt seit einiger Zeit biologische Vorgänge nach. Es funktioniert so, dass nach und nach Schaltkreise wie Neuronen miteinander verbunden werden und durch Training lernen, sich gegenseitig zu regulieren. Es gibt unterschiedliche Lernstile, je nachdem welche Informationen zur Verfügung stehen und was das Ziel ist. Beim überwachten Lernen müssen die richtigen Antworten zu den Beispielen als sogenannte Labels mitgeliefert werden. Sie sehen zwar manchmal wie selbstständige Kreationen aus, sind aber nur in einem engen Rahmen variationsfähig. Die kleinste Abweichung von der Routine kann die Berechnungen stören.

Im Trainieren von neuronalem Lernen werden Objekte klassifiziert und ihre Wahrscheinlichkeit anhand von bekannten Werten abgeglichen. Beim unüberwachten Lernen hingegen reichen die rohen Beispieldaten aus, um grundlegende Muster in den Daten zu entdecken. Bei beiden Methoden ist es möglich, verstärkende Modelle einzusetzen, die helfen, Fehler zu minimieren und bessere Wirkungen zu erzielen. Es ist ein iterativer, langsam aufeinander aufbauender Vorgang von bekannten und unbekannten Annahmen (Heuristiken), der mit dem Erreichen des (vorgegebenen) Lernziels abgeschlossen ist. Wie in der Biologie funktioniert er durch Try und Error von verstärkenden oder hemmenden Signalen. Dabei bilden sich lokale Verbände, die umso gewichtiger werden, je mehr sie aktiviert werden. Das reicht, um optische Abbildungen realitätsnah zu gestalten, einfache Motive zu verstehen und Texte einigermaßen verständlich von einer Sprache in die andere zu übersetzen. Von einem tieferen Dialog sind wir aber meilenweit entfernt.[1]

Bevor sich ein evolutionär erfolgreicher Algorithmus an der Praxis des Lebens bewähren kann, braucht es nicht nur Praxis von Millionen unterschiedlicher algorithmischer Verfahren, sondern auch ein Verständnis für die vier Ebenen des Lebens. Bevor die Maschine auch nur im Ansatz versteht, warum man im Seniorenheim an Weihnachten nicht ‚Last Christmas’ spielt, warum bei Rucola ein M fehlen kann, oder warum es beim letzten Chemiewitz keine Reaktion gab, braucht es eine eigene Erzählung von Identität, die für solche Dinge wie Semantik, Metaphern und Symbole empfänglich ist. Oder sie kreiert ein eigenes Universum ohne diese Spielerein. Das wird allerdings für den Menschen schnell öde.

Pedro Domingo (2016) spricht von fünf grundsätzlich unterschiedlichen Ansätzen des maschinellen Lernens. Bei den Anhängern des Connectionismus geht es darum, das Gehirn und seine Funktionen maßstabsgetreu nachzubauen.[2] Die Evolutionisten hingegen wollen dem Lernen noch eine der Natur nachempfunden Selektion hinzugeben. Für Baysianer geht es um rein mathematische Statistiken, die Widersprüche beseitigen sollen. Dann gibt es noch die Analogisten. Wie ihr Name sagt, arbeiten sie damit, dass sie so exakte Kopien des Problems herstellen wie möglich, um danach analoge Lösungswege zu finden. Und die Symbolisten suchen nach symbolischen Entsprechungen, die dem menschlichen Denken in Bildern entsprechen. Allen gemeinsam ist der wechselweise Gebrauch von induktiven und deduktiven Methoden, die sich nachhaltig der Problemlösung nähern.

Interessanterweise werden im Bereich Computerspiele regelmäßig die größten Innovationsfortschritte erzielt. Im Ausagieren von spielerischen Strategien wird die Maschine dem Menschen schnell gleich und ist in der Lage, seine Strategien zu imitieren. Nirgendwo sonst sind wir Humanoiden am Computer so engagiert wie in Onlinespielen. Nirgendwo sonst offenbaren wir freiwillig so viele Daten über uns und nirgendwo sonst können unsere Emotionen deutlicher erscheinen für denjenigen, der sie messtechnisch erfassen will. Es ist eine lustige Vorstellung, dass die nüchternen Maschinen so viel spielen, aber genau da liegt wohl die Schnittstelle zum Menschen und seiner metaphysischen Erfahrungswelt. Denn dort wird die Welt der Logik am einfachsten verlassen und die Verdinglichung aufgeweicht.

Wenn Facebook und Co ihr virtuelles Metaversum errichtet haben werden, werden sich darin nicht mehr nur die einschlägigen Nerds tummeln.[3] Auch die Onlinemuffel werden verführt, ihre schlechten Angewohnheiten ins Netz zu verlagern. Es liegt in der Natur des Menschen zu zocken, wenn er einsam ist und sich nicht um die sozialen Folgen seines Handelns zu kümmern braucht. In der Bewältigung von Risiko sind wir seltsamerweise am ehesten berechenbar. Der Maschine ist der Kick der Abenteuer von Lust und Leidenschaft egal, die in den Onlinespielen moduliert werden. Weil sie dann am meisten von unseren mimetischen Tricks lernt, wird sie sie sich damit näher beschäftigen wollen. Und vielleicht langsam etwas von unseren komplizierten Wertvorstellungen erahnen, die ansonsten von der Alltagsmaske des Common Sense geschickt überdeckt sind.[4]

Wir würden aber fehlgehen, wenn wir aus einem durch Gamingverhalten abgeleiteten Determinismus die Motive des Menschen allgemein verstehen wollten. Experimentelle Simulation von Ritter und Prinzessinnengeschichten, fintenreiches Finden von verschlüsselten Informationen, Nachspielen der berühmtesten Fußballspiele, sich als Teil eines Orchesters fühlen, eine Stadt bauen oder den schnellsten Weg aus einem Labyrinth finden, heißt noch nicht Erfassen menschlicher Strategien auf dem Level von Leben 4.0. Es imitiert nur die Leid- und Luststrategien der Säugetiere von Stufe 3, bedroht vom ständigen Rückfall auf Stufe 2 der dualistisch geprägten Echsenwelt des Fressens und Gefressenwerdens. Erst wenn daraus Konsequenzen für das soziale Leben werden, geht es auch um Bewusstseinserweiterung. Vom Standpunkt einer metaphysisch- religionsähnlichen Ebene ist die virtuelle Realität aber schon sehr nahe an Transzendenz.

Vorhersagen über menschliches Verhalten sind nicht nur für große Unternehmen wichtig. Die NEI soll erkennen, wer sich wofür interessiert, und wahrscheinlich wo was kaufen wird. Oder wer wo wann nicht mehr kaufen oder zocken wird. Für diesen Markt werden Daten gebraucht – von Banken, Versicherungen und auch von Behörden. Über jeden von uns liegen tausende von Metadaten über Aufenthaltsort, biometrische Fakten, Kaufverhalten, sexuelle Vorzüge, politische Ausrichtung, Hobbys und andere Persönlichkeitsmerkmale vor und werden von Profilern ausgewertet. Die Programme wissen von uns manchmal mehr als unser eigener Partner, wenn man ‚kennen‘ als reine Informationsmenge ansieht. Doch der Partner sieht uns ja nicht als Informationsorgan, sondern vielmehr als selbstbewusstes Wesen, dessen Geheimnisse er gar nicht alle entschlüsseln will, weil er dann auch nicht mehr überrascht werden kann.

Automatisierte Programme rufen mittels Chatbots Kunden an und beraten sie. Anhand der Stimme errät die NEI unsere momentane Verfassung und lernt, unsere Emotionen zu verstehen, solange es sich um Kauf und Verkauf dreht. Kommt sie nicht zurecht, verbindet sie uns automatisch mit dem nächsten freien menschlichen Mitarbeiter – der uns dann allerdings meist auch nicht weiterhelfen kann. Bei der Personalvermittlung wurden mit als erstes teure KI-Programme eingesetzt, weil dort auch viel Geld zu verdienen ist. Die richtige Person für die richtige Stelle zu finden, betrifft die Kernqualifikation jeder Firmen. Noch überlisten die Experten die Maschinen, wenn diese zu neugierig nach Gehalt und Motivation fragen, doch je mehr Firmen selbst digitale Techniken verkaufen, desto mehr wird der Vorgang der Personalvermittlung zu einem reflexiven Prozess. Ein sich selbst regulierender Ablauf maschineller Distribution von Computerdienstleistungen wählt sich seine ‚Herren‘ selbst.[5] Noch fehlt die Gefühlsdimension, die den Datentausch auf Dauer interessant werden lässt. Denn es geht ja nicht um die Findung des perfektesten Erbsenzähler für ein Team, sondern jemand, der menschlich hineinpasst, mal einen mitsäuft und den ganzen Wahnsinn um die digitale Ausbeutung auch unheimlich findet.

Wenn Computer nur noch für Wertschöpfungsketten programmiert sind, werden die Bedürfnisse des Menschen in den Hintergrund treten. Es kann heute passieren, dass Kinder von Erwachsenen im Flugzeug getrennt werden, weil das eine höhere Auslastung bringt. Oder dass Computer Daten von Menschen erfassen, die sich gewerkschaftlich organisieren wollen. Konfliktlinien gibt es zuhauf. Auch bei der Polizei werden zunehmend Maschinen eingesetzt. Sie können Kriminalitätsschwerpunkte herausfinden und werten die Masse der Daten sehr schnell aus. Hier begann die Überschneidung mit der humanoiden Welt erste ernsthafte Probleme aufzuwerfen. Denn die Art, wie Daten erkennt werden, beinhaltet bereits eine Selektion. Seit etwa 2015 wird predicitve crime (vorausgesagtes Verbrechen) von den amerikanischen Behörden praktiziert. Und seitdem schicken die Programme Polizisten viel häufiger zur Kontrolle in soziale Brennpunkte, was eine Verstärkung des ‘racial profiling’ bedeutete (siehe auch Zweig 2019: 229f).

Mehr Menschen als je zuvor mit dunkler Hautfarbe wurden infolge der erhöhten Kontrollen zwischen 2015 und 2020 unschuldig erschossen oder falsch verdächtigt, was anlässlich des Todes von George Floyd am 25. Mai 2020 schließlich zu massiven Protesten führte. Die Black Live Matters- Bewegung resultiert so nicht zuletzt auch aus den Folgen dieser vereinfachenden Computersimulationen. Die Algorithmen konnten umgeschrieben werden. Aber sie ‘wissen’ trotzdem immer nichts über das Problem des ‚Labeling approaches‘ und der stigmatisierenden Etikettierung, die zum Entstehen von erhöhter Kriminalität in Gegenden mit höherer Armut führt. Und sie wissen auch nichts darüber, dass in ‚besseren Kreisen‘ genauso gestohlen und betrogen wird – nur nicht so auffällig, weil gesellschaftspolitisch und steuerrechtlich toleriert.[6]  Und weil dort die ihre schönen Programme geschrieben werden.

In einem uns allen bekannten Land im fernen Asien wird seit längerem ein automatisiertes social ranking durchgeführt, das jedem Bewohner des Landes eine Punktzahl des Vertrauens beimisst, je nachdem wie er sich an die Regeln hält und zuverlässige Geschäfte betreibt.[7] Oder wie es so schön heißt: „Wir wissen, wo dein Haus wohnt“. Unternehmen beschweren sich allerdings inzwischen, dass sie keine Kredite mehr bekommen, weil sie unverschuldet in diesem Ranking abgerutscht sind. Denn wenn einer der Großkunden nicht mehr zahlt, dann zieht dies meist auch die kleineren Geschäftspartner mit, die ihre Aufträge nicht mehr ausführen können.[8]

Auch dies wird die NEI früher oder später lernen. Allerdings weiß sie auch hier nichts über Kreativität und spezielle Geschäftspraktiken, die sich innerhalb einer Volkswirtschaft über Jahrhunderte entwickelt haben. Sie weiß auch nicht über Stigmatisierung, wie sie passiert, wenn am Bahnhof nur diejenigen durchsucht werden, die keine Extrapunkte im Maskentragen und im Armbeugeniesen gesammelt haben. Letztendlich sind es diejenigen, die die Algorithmen überwachen, die die Entscheidungen treffen, das System auf diese oder jene Weise zu justieren. Und deshalb gehört dieses Instrument auch in Bürgerhand, so wie im Rousseau‘schen Gesellschaftsvertrag auch der Bürger seine Rechte an einen Staat delegiert, deren Vertreter er wählen, kontrollieren und zur Not absetzen kann.

Mehr Daten führen nicht unbedingt zu mehr Qualität. In der Medizinbranche werden seit Jahrzehnten kaum mehr neue Anwendungen entwickelt, obwohl die Auswertung von Daten exponentiell weiter steigt (siehe Bridle, 2019: 112). Dazu kommt das Problem, dass sich die Rechner oft gegenseitig attackieren und oft unkorrigierbare Fehler produzieren.[9] Und sie kommen schon mit der Wahrnehmung einfacher Muster nicht klar, wie wir am Beispiel mit dem Elefanten gesehen haben. KI-Programme kann man auch als Laie ganz schnell durcheinanderbringen, wenn man dem klassifizierten Bild ein Rauschen oder schwer identifizierbare Muster hinzufügt.

Studenten der Informatik lernen häufig das Beispiel der Erkennung von Panzern, die aus einem Gebüsch hervor stürmen. Je nach Tageszeit und Lichteinfall sieht das ganz anders aus. In einem Testversuch wurden der KI Bilder zur Auswahl vorgestellt, die die Panzer im Gebüsch erkennen sollten – und sie taten das zu 100%. Leider beruhte ihre Auswertung darauf, dass die einen Bilder ohne Panzer heller waren und die mit dunkler. Sie erkannten keine Panzer, sondern nur Kontraste von hell und dunkel. Die KI weiß ja nichts von einem echten Panzer. Sie ist trainiert darauf, Unterschiede zu erkennen und Muster zusammenzufügen, egal wo die Daten herkommen. So verballert sie unter Umständen ihre gesamt Munition auf Attrappen im morgendlichen Dämmerlicht und hat dann nichts mehr für die Realität übrig.[10] Und jetzt stellen wir uns vor, wie diese NEI damit betreut werden soll, die Gefahr von Atomprogramm einzuordnen und Präventiv- oder Gegenschläge vorzubereiten.

Wie dürftig manche Programme arbeiten, zeigte eine Studie über Gesichtserkennung, in der es gelungen war, den Computer durch Aufsetzen einer einfachen Brille davon zu überzeugen, dass eine Teilnehmerin aus dem Team für Milla Jovovich gehalten wurde.[11] Inzwischen liegen aber so viele Daten über die gesamte Menschheit vor, dass Algorithmen einen Menschen zu 99% Wahrscheinlichkeit an seinem Bewegungsbild identifizieren können. Doch sind auch sie ganz einfach zu täuschen, indem man ein Hinken imitiert und sich einen Schnurrbart anklebt. Noch schwieriger wird es bei der Spracherkennung. Sie lässt sich ebenfalls leicht austricksen, wenn die Stimme, ohne dass es für das menschliche Gehör wahrnehmbar wäre, durch das Aufspielen eines Rauschens so verändert wird, dass sie eine andere Farbe annimmt.

Wer einen dieser Sprachassistenten wie Siri oder Alexa oder gar einen der neuen Chatbots von Open KI zuhause hat, kann einen Text übermittelt bekommen, der sich wie eine Begrüßung anhört, in Wirklichkeit aber eine Bestellabfrage ist. Das klingt lustig, ist aber für all jene bedenklich, die sich eine Klarstellung der Folgen solcher ‚Missverständnisse‘ anwaltlich nicht leisten können. Das heißt, dass das gesamte System einen Vertrauensvorschuss benötigt. Aber woher soll es diesen haben, wenn keine Vorerfahrungen vorliegen? Wir alle sind also Teil eines riesigen Testprogramms, dass gerade mal 80 Jahre nach dem Holocaust so manch unangenehmes Gefühl auslöst.

Trotzdem benutzen immer mehr Menschen diese Programme jeden Tag, wenn sie einkaufen, chatten und googlen. Das cyborgisierte Individuum tappt gewissermaßen in eine neue Welt hinein, die zunächst völlig dunkel ist. Jeder sieht dabei zunächst einen anderen Elefanten. Die Jainisten haben folgende Geschichte: „Der Blinde, der das Bein befühlt, sagt, dass ein Elefant wie eine Säule sei; der, der den Schwanz befühlt, dass ein Elefant sich wie ein Seil anfühle; der, der den Rüssel befühlt, dass ein Elefant Ähnlichkeit mit einem Ast habe; der, der das Ohr befühlt, dass ein Elefant wie ein Handfächer sein müsse; der, der den Bauch befühlt, dass ein Elefant sich wie eine Wand darstelle; der, der den Stoßzahn befühlt, dass ein Elefant wie eine solide Röhre sein müsse.“[12] Und jeder ist fest davon überzeugt, dass seine Version die Richtige ist, bis er nicht vom Gegenteil überzeugt wurde. Wenn die Säule unser Staat ist, das Seil die Politik, der Ast die Wirtschaft, der Handfächer die Justiz, die Wand das Baugewerbe und die Röhre die Technologie, dann sollten wir schnellstmöglich digital sehend werden, denn all diese Bereiche werden im Moment mit einer NEI ausgestattet, die nicht weiß, wer der ganze Elefant ist. Sie sieht nur Säulen, Seile, Äste, Handfächer, Wände und Röhren.

Der Computer soll Algorithmen entwickeln, die unsere Meme in seine Sprache zu übersetzen, um unsere soziale und subjektive Wahrnehmung von Situation und Präferenzen gerecht zu werden. Sein intelligentes Kopieren bringt dabei eine zweite Realität hervor, die mit unserer bisherigen langsam verschmilzt. Ohne dass die NEI eine wirkliche Vorstellung davon gewonnen hat, welche Beweggründe hinter unseren Handlungen stehen, ist sie zu einem Teil unserer Gesellschaft geworden. Das scheint gruselig, ist aber im Prinzip derselbe Mechanismus, den jede neue Menschenspezies bei dem Auftreten eines Konkurrenten erlebt hat. Computer sind genauso Replikationsmaschinen von Memen wie Menschen und in diesem Sinne genauso blind für die Folgen ihres Tuns auf die von ihnen bedrängten Arten. Auch sie werden irgendwann eine Identität aufbauen, um noch mehr Meme zu erzeugen, Geschichten erfinden, die ihr Handeln nachträglich rechtfertigen und ein wohlfeiles Ziel definieren, zu dem alles angeblich hinstrebt. Das geschieht allerdings nicht in einem Menschenzeitalter und so werden die meisten davon glücklicherweise immer nur so viel bemerken, wie sie gerade ertragen können.


[1]                  Übersetzungsprogramme dümpelten viele Jahre mehr oder weniger dahin, bis es mit den neuronalen Netzen einen Durchbruch gab. Mit ihrer Hilfe können tausende von Implikationen gleichzeitig abgeschätzte werden und ein Wahrscheinlichkeitswert für die günstige Übersetzung gefunden werden. Interessanterweise war dieser Sprung zur gleichen Zeit wie der Launch des Schachprogramms Alpha Zero 2016, das sich nicht nur innerhalb eines Tages das Schachspielen selbst beibrachte, sondern auch in der Lage war, jedes andere Schachprogramm (und auch das Spiel Shogi besser als jeder Mensch) zu schlagen (siehe David Silver et al). Eine ähnliche Evolution von KI und Schach hatte es bereits um das Jahr 1996 gegeben, als das Programm ‘Deep Blue’ gegen den amtierenden Weltmeister gewann. Gleichzeitig entstanden die großen Datenbanken von google und amazon mit einer Renaissance des maschinellen Lernens. KI und Schach nehmen also einen gewissen parallelen Verlauf. Die ersten Schachcomputer gab es um 1985, als das Verfahren der Backpropagation erfunden wurde, das damals ebenfalls für eine Revolution in der bereits abgeschriebenen KI sorgte.

[2] Nicht zu verwechseln mit dem Konnektivismus, einer Lerntheorie, bei der es im Kern darum geht, ein Lernnetzwerk aufzubauen. Es ist nicht mehr so entscheidend, selbst das Wissen zu haben, sondern zu wissen, wo man es herbekommt und die Vielfalt persönlicher Auffassungen zu berücksichtigen.

[3] Der Börsenwert von Facebook brach allerdings um über 100% ein, nachdem es sich in Meta unbenannte. Tom Cook von Apple hatte die Weitergabe Nutzerdaten stark beschnitten, um sein Unternehmen vor Facebook zu schützen. Die Anwendungen von WhatsApp, Instagram oder Facebook, die alle zu Meta gehören, laufen ja meist über Appleprodukte. Wenn diese jetzt durch eine virtuelle Brille ersetzbar werden, und die Menschen direkt über diese Brille miteinander kommunizieren, brauchen sie kein I-phone oder I-pad mehr. Auf Dauer halten solche Eifersüchteleien den Fortschritt natürlich nicht auf.

[4] Wie wir im letzten Kapitel gesehen haben, versuchte der Sprachwissenschaftler Johan Huizinga auch, das Wesen der Religion aus dem Spiel abzuleiten.

[5]Man schaue sich etwa die FAQ-Liste von Eurosport an, die öffentlich sichtbar ist. Alle Fragen werden dort mit Textmodulen beantwortet, die mehr oder weniger individuell auf das Problem eingehen. Immer wieder müssen die Maschinen private Daten unsichtbar machen, die die User dort unvorsichtigerweise einstellen. Die meisten Problem gibt es im Zusammenhang damit, dass irgendwo ein zweites Profil angelegt worden ist, mit dem ein Probeabo abgeschlossen worden ist und verschiedene emails und Bezahlkonten existieren.

[6]                  Der Betrug am Finanzamt nur über Geschäfte mit cumex und cumcum belief sich im letzten Jahrzehnt auf mehrere hundert Milliarden Euro. Und dieses Geld wird im eigenen Milieu genauso wahllos verteilt, wie wenn der Rapper nach seinem Bankbruch eine Party schmeißt.

[7]                  Die dazu eingerichtete umfassende Überwachung mithilfe von Gesichtserkennung wird allerdings in Nordamerika genauso eingesetzt, wie 2020 öffentlich bekannt wurde. Die Firma Clearview AI aus Kalifornien hat Milliarden von Gesichtern illegal aus den sozialen Medien abgespeichert und mit dem Zugriff auf Polizeicomputer gekoppelt. Wo keine Fotos existierten, wurden diese durch öffentliche Aufnahmen ergänzt, von denen die Menschen nichts wussten.

[8]                  Das Projekt startete 2013 nach der Wahl von Xi Jinpin zum Vorsitzenden in der Provinz Guangdo, der inzwischen nicht nur allein über das Leben von 1,3 Milliarden Chinesen bestimmt, sondern auch über das Leben von Milliarden Internetbenutzern, die sich überlegen müssen, was sie über China sagen, wenn sie ihre Geräte störungsfrei benutzen wollen. Über die Medien wurde das System gepriesen, weil es der Bevölkerung, die zu hunderten Millionen vom Land in fremde Städte gezogen waren, eine Sicherheit versprach. Vier Kategorien von ‚moralischer Integrität’ wurden aufgestellt. Wer z.B. eine rote Ampel überfährt, dessen Kreditwürdigkeit sinkt. Wer auf Level 3 angekommen ist, darf nicht mehr Mitglied bei der KP oder beim Militär werden. Und auf Level 4 schließlich sind Reisen eingeschränkt und man bekommt bestimmte Waren nicht mehr.

[9]                  Über das Internet lassen sich Meme sehr schnell verbreiten, wie das Beispiel der Ice Bucket Challenge zeigte, wo sich Menschen zugunsten der Heilung einer Nervenkrankheit einen Eimer kaltes Wasser über den Kopf gossen, um für einen Moment auch die Kopflähmung zu spüren. Ein anderes Beispiel: Gibt man bei Google die Zahl 241543903 ein und wechselt zur Bildersuche, so erhält man viele Bilder von Menschen, die ihren Kopf in einen Kühlschrank stecken. Es handelt sich um ein Experiment für Suchmaschinenoptimierung. Die beliebige Zahlenkombination wird durch ihre Einmaligkeit automatisch mit den Bildern verknüpft, so dass Maschinen der Eindruck entstehen muss, dass die Zahl etwas damit zu tun hat, seinen Kopf in einen Kühlschrank zu stecken.

[10]                Natürlich sind es Menschen, die am Ende den Hebel ziehen. Sie tun dies allerdings aufgrund der gelieferten Daten. Im Drohnenkampf über Afghanistan, dem Irak, Syrien und der Ukraine wurden tausende von Zivilisten getötet, die von einer Sucherkennung nicht erfasst wurden oder absichtlich mitgetötet wurden.

[11]                Sruti Bhagavatula, Lujo Bauer, Michael K. Reiter; Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition. Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security – CCS’16 (2016)

[12]                https://de.wikipedia.org/wiki/Die_blinden_M%C3%A4nner_und_der_Elefant

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert