Anleitung für Eltern: "Künstliche Intelligenz" wird verwendet, um Babysitter anhand ihrer Social-Media-Geschichte zu bewerten

Inhalt:

{title}

Als Jessie Battaglia anfing, nach einem neuen Babysitter für ihren einjährigen Sohn zu suchen, wollte sie mehr Informationen, als sie durch einen Kriminalitätsüberprüfung, Elternkommentare und ein persönliches Interview erhalten konnte.

Also wandte sie sich an Predictim, einen Onlinedienst, der die Persönlichkeit eines Babysitters mithilfe von "Advanced künstlicher Intelligenz" bewertet und seine Scanner auf Tausende von Facebook-, Twitter- und Instagram-Posts eines Kandidaten ausrichtete.

  • Fragen Sie sich, warum Schlafentzug sich als Folter anfühlt? Weil es so ist
  • 'Date Night' Reality: Wie kann man es tatsächlich schaffen?
  • Das System bot eine automatisierte "Risikobewertung" für eine 24-jährige Kandidatin an und sagte, sie habe ein "sehr geringes Risiko", Drogenabhängige zu sein. Aber es gab eine etwas höhere Risikobewertung - zwei von fünf - wegen Mobbing, Belästigung, "respektlos" und "schlechter Einstellung".

    Das System erklärte nicht, warum es diese Entscheidung getroffen hatte. Aber Battaglia, die geglaubt hatte, der Sitter sei vertrauenswürdig, verspürte plötzlich Zweifel.

    "Social Media zeigt den Charakter einer Person", sagte Battaglia, 29, der in der Nähe von Los Angeles lebt. "Also, warum kam sie um zwei und nicht um eins?"

    Predictim bietet Eltern das gleiche Spielbuch an, das Dutzende anderer Technologiefirmen an Arbeitgeber auf der ganzen Welt verkaufen: Künstliche Intelligenzsysteme, die die Sprache, den Gesichtsausdruck und die Online-Geschichte einer Person analysieren und versprechen, die verborgenen Aspekte ihres Privatlebens aufzudecken.

    Die Technologie verändert die Art und Weise, wie einige Unternehmen die Einstellung, Einstellung und Überprüfung von Arbeitnehmern anstreben, und bietet Arbeitgebern einen unübertroffenen Blick auf die Bewerber durch eine neue Welle der invasiven psychologischen Bewertung und Überwachung.

    Die Technologiefirma Fama sagt, sie nutze KI, um die sozialen Medien von Arbeitern auf "giftiges Verhalten" zu überwachen und ihre Chefs zu alarmieren. Das Unternehmen für Rekrutierungstechnologie HireVue, das mit Unternehmen wie Geico, Hilton und Unilever zusammenarbeitet, bietet ein System, das automatisch Tonfall, Wortwahl und Gesichtsbewegungen der Bewerber während Videointerviews analysiert, um ihre Fähigkeiten und ihr Verhalten im Beruf vorherzusagen. (Die Bewerber werden aufgefordert, für beste Ergebnisse zu lächeln.)

    Kritiker sagen jedoch, dass Predictim und ähnliche Systeme ihre eigenen Gefahren bergen, indem sie automatisierte und möglicherweise lebensverändernde Entscheidungen praktisch unkontrolliert treffen.

    Die Systeme sind auf Black-Box-Algorithmen angewiesen, die wenig Aufschluss darüber geben, wie sie die Komplexität des Innenlebens einer Person in eine Berechnung der Tugend oder des Schadens reduzieren. Und auch wenn die Technologie von Predictim das Denken der Eltern beeinflusst, bleibt sie völlig unbewiesen, weitgehend ungeklärt und anfällig für ruhige Neigungen, wie ein geeigneter Babysitter sich teilen, schauen und sprechen sollte.

    Es gibt diesen "wahnsinnigen Ansturm, die Macht der KI zu ergreifen, um alle Arten von Entscheidungen zu treffen, ohne dafür zu sorgen, dass sie den Menschen gegenüber rechenschaftspflichtig sind", sagte Jeff Chester, der Exekutivdirektor des Center for Digital Democracy, einer Tech-Advocacy-Gruppe. "Es ist, als ob die Leute die digitale Kool-Aid getrunken haben und denken, dass dies ein angemessener Weg ist, um unser Leben zu steuern."

    Predictims Scans analysieren die gesamte Geschichte der sozialen Medien eines Babysitters, die für viele der jüngsten Babys den größten Teil ihres Lebens abdecken können. Den Sittern wird gesagt, dass sie für die wettbewerbsfähigen Jobs einen großen Nachteil haben werden, wenn sie sich weigern.

    Predictims Chef und Mitbegründer Sal Parsa sagte, das im letzten Monat als Teil der University of California am Berkeley SkyDeck Tech Inkubator gegründete Unternehmen nehme ethische Fragen über den Einsatz der Technologie ernst. Die Eltern sollten die Bewertungen als Begleiter sehen, der "die tatsächlichen Eigenschaften des Dargestellten widerspiegeln kann oder nicht".

    Aber die Gefahr, einen problematischen oder gewalttätigen Babysitter einzustellen, macht die KI zu einem unverzichtbaren Hilfsmittel für alle Eltern, die hoffen, ihr Kind zu schützen.

    "Wenn Sie bei Google nach missbräuchlichen Babysittern suchen, werden Sie jetzt Hunderte von Ergebnissen sehen", sagte er. "Es gibt Menschen, die entweder psychisch krank sind oder einfach nur böse geboren sind. Unser Ziel ist es, alles zu tun, um sie aufzuhalten."

    Ein Predictim-Scan beginnt bei 24, 99 US-Dollar und erfordert den Namen und die E-Mail-Adresse eines Babysitters sowie deren Einwilligung, um einen breiten Zugang zu ihren Social Media-Konten zu erhalten. Der Babysitter kann ablehnen, aber ein Elternteil wird über seine Ablehnung informiert und in einer E-Mail wird dem Babysitter mitgeteilt, dass "der interessierte Elternteil Sie nicht einstellen kann, bis Sie diese Anfrage abgeschlossen haben."

    Predictims Führungskräfte sagen, sie verwenden Sprachverarbeitungsalgorithmen und eine Bilderkennungssoftware, die als "Computer Vision" bezeichnet wird, um Facebook-, Twitter- und Instagram-Posts von Babysittern nach Hinweisen auf ihr Offline-Leben zu bewerten. Dem Elternteil wird ausschließlich der Bericht zur Verfügung gestellt, und er muss dem Sitter nicht die Ergebnisse mitteilen.

    Die Eltern könnten sich vermutlich die öffentlichen Social-Media-Konten ihrer Sitzenden selbst ansehen. Die computergenerierten Berichte versprechen jedoch eine eingehende Überprüfung jahrelanger Online-Aktivitäten mit einer einstelligen Zahl: eine berauschend einfache Lösung für eine unpraktische Aufgabe.

    Die Risikoeinstufungen sind in verschiedene Kategorien unterteilt, darunter explizite Inhalte und Drogenmissbrauch. Das Start-up hat auch angekündigt, dass sein System Babysitter auf andere Persönlichkeitsmerkmale wie Höflichkeit, Fähigkeit zur Zusammenarbeit mit anderen und "Positivität" auswerten kann.

    Das Unternehmen hofft, die Multimilliarden-Dollar-Branche für "Parental Outsourcing" aufzustocken, und hat durch bezahlte Patenschaften für Elternschaft und "Mumien" -Blogs mit der Werbung begonnen. Das Marketing des Unternehmens konzentriert sich stark auf seine Fähigkeit, verborgene Geheimnisse aufzudecken und "den Alptraum aller Eltern" zu verhindern. Dabei werden kriminelle Fälle genannt, unter anderem ein Kentucky-Babysitter, der Anfang des Jahres angeklagt wurde, ein acht Monate altes Mädchen schwer verletzt zu haben.

    "Hätten die Eltern des von diesem Babysitter verletzten Mädchens Predictim im Rahmen ihres Überprüfungsprozesses einsetzen können", heißt es in einem Marketingdokument des Unternehmens, "hätten sie sie niemals mit ihrem wertvollen Kind allein gelassen."

    Tech-Experten sagen jedoch, dass das System seine eigenen roten Fahnen aufwirft, einschließlich der Befürchtung, die Ängste der Eltern könnten einen Persönlichkeitsscan von ungeprüfter Genauigkeit verkaufen.

    Sie fragen auch, wie die Systeme trainiert werden und wie verwundbar sie möglicherweise sind, um die unscharfen Bedeutungen der Verwendung von Social Media durch Sitter zu missverstehen. Bei allen Scans mit dem höchsten Risiko erhalten die Eltern nur einen Vorschlag für fragwürdiges Verhalten und keine spezifischen Ausdrücke, Links oder Details, die sie selbst bewerten können.

    Als der Scan eines Babysitters auf ein mögliches Mobbing-Verhalten hingewiesen wurde, sagte die verunsicherte Mutter, die darum gebeten hatte, nicht zu sagen, ob die Software ein altes Filmzitat, einen Liedtext oder eine andere Phrase im Gegensatz zur tatsächlichen Mobbing-Sprache entdeckt habe.

    Predictim sagt jedoch, dass es sich auf eine landesweite Expansion vorbereitet. Führungskräfte von Sittercity, einem Online-Marktplatz für Babysitter, der von Millionen von Eltern besucht wird, gaben an, Anfang nächsten Jahres ein Pilotprogramm zu starten, das die automatischen Bewertungen von Predictim in die derzeitige Palette von Sitter-Screenings und Hintergrundüberprüfungen der Website einfügt.

    "Die Suche nach einem Babysitter kann mit viel Unsicherheit einhergehen", sagte Sandra Dainora, Produktchef von Sittercity, die der Meinung ist, dass solche Werkzeuge bald zur "Standardwährung" werden könnten, um online Pfleger zu finden. "Eltern suchen immer nach der besten Lösung, der größten Recherche und den besten Fakten."

    Die Washington Post

    Vorherige Artikel Nächster Artikel

    Empfehlungen Für Mütter.‼