Teams in Indien und Rumänien nutzen von Kunden gesendete Videosequenzen zur Fehlerbehebung und zum Training von Algorithmen im Bereich der künstlichen Intelligenz.
In einem Werbevideo sagt Amazon.com Inc., dass ihre Cloud-Kamera „alles bietet, was Sie brauchen, um Ihr Zuhause zu überwachen, tagsüber als auch nachts“. In Wirklichkeit benötigt das künstlich intelligente Gerät jedoch die Hilfe einer Gruppe von versteckt gehaltenen Mitarbeitern.
Dutzende von Amazon-Mitarbeitern aus Indien und Rumänien überprüfen ausgewählte Clips, die von Cloud-Kamera aufgenommen wurden – so fünf Personen, die an dem Programm gearbeitet haben bzw. von der Situation direkte Kenntnis haben. Diese Videosequenzen werden anschließend verwendet, um die KI-Algorithmen zu trainieren, damit sie eine genauere Unterscheidung zwischen einer echten Bedrohung (ein Einbrecher) und einem Fehlalarm (die Katze springt auf dem Sofa) treffen können.
Ein Amazon-Team transkribiert und kommentiert außerdem Befehle, die von dem Alexa-Digitalassistenten des Unternehmens in Privathäusern aufgezeichnet wurden, berichtete Bloomberg im April.
Die KI ermöglicht uns Unterhaltungen mit unseren Smartphone und den darin integrierten Assistenten. Damit können Investoren Veränderungen in der Marktstimmung vorhersagen. Aber die Technologie ist bei weitem nicht unfehlbar. Die Cloud-Kamera sendet sogar Warnmeldungen, wenn lediglich etwas Papier in unmittelbarer Umgebung raschelt. Alexa von Apple Inc. und Siri von Amazon missverstehen immer noch gelegentlich Anweisungen. Eines Tages können Ingenieure diese Defizite überwinden, aber für den Moment braucht die KI menschliche Hilfe. Wie so Vieles in diesem Sektor.
Zu einem bestimmten Zeitpunkt und an einem typischen Tag kommentierten einige Amazon-Auditoren jeweils etwa bis zu 150 Videoaufnahmen. Diese waren typischerweise 20 bis 30 Sekunden lang, so die Zeugen – die Anonymität forderten, um so offen über ein internes Programm sprechen zu können.
Nirgendwo in den Nutzungsbedingungen der Cloud-Kamera erklärt Amazon seinen Kunden ausdrücklich, dass Menschen die Algorithmen hinter ihrer Bewegungserkennungssoftware trainieren.
Und trotz Amazonas Beharrlichkeit, dass alle Clips freiwillig zur Verfügung gestellt werden, haben zwei der Leute berichtet, dass die Teams aktive Hausbesitzer wahrscheinlich nicht teilen wollen, einschließlich seltener Fälle von Personen in intimen Situationen.
Clips mit unangemessenem Inhalt werden als solche gekennzeichnet und anschließend verworfen, sodass sie nicht versehentlich zum Training der KI verwendet werden, berichteten die Quellen. Amazon’s Sprecherin sagte weiterhin, dass solche Clips gelöscht werden, um die Erfahrung der menschlichen Gutachter des Unternehmens zu verbessern, aber sie erläuterte jedoch nicht, wie mit unangemessenen Aktivitäten in freiwillig eingereichten Videoclips umgegangen wird.
Die Arbeiter sagten, dass Amazon der Annotation der Cloud-Kamera strenge Sicherheitsvorkehrungen auferlegt hat. In Indien arbeiten Dutzende von Gutachtern auf einer nicht zugänglichen Etage, wo die Mitarbeiter nicht einmal ihr Handy benutzen dürfen, so zwei der Befragten. Aber das hat andere Mitarbeiter nicht davon abgehalten, Filmmaterial an Nicht-Teammitglieder weiterzugeben, sagte wieder eine andere Person.
Das 120-Dollar-Gerät erkennt und warnt Menschen vor Aktivitäten in ihren Häusern und bietet ihnen 24 Stunden lang freien Zugang zu den Aufnahmen. Benutzer, die bereit sind, etwa 7 bis 20 US-Dollar für ein monatliches Abonnement zu bezahlen, erhalten maßgeschneiderte Benachrichtigungen – beispielsweise für ein weinendes Baby oder einen Rauchalarm. Amazon verrät nicht, wie viele Cloud-Kameras bisher verkauft wurden, aber das Gerät ist nur eine von vielen Home Security-Kameras auf dem Markt – vom Google’s Nest bis zur Amazon-eigenen Serie und vielen Weiteren.
Während KI-Algorithmen immer besser darin werden, sich selbst zu unterrichten, werden von Amazon menschliche Trainer eingesetzt. Diese helfen Alexa, Sprachbefehle zu verstehen, lehren den automatisierten Amazon Go Convenience Stores des Unternehmens, einen Käufer vom anderen zu unterscheiden und arbeiten sogar an experimenteller Sprachsoftware, die zur Erkennung menschlicher Emotionen entwickelt wurde.
Die Verwendung von Menschen zur Ausbildung der künstlichen Intelligenz in Konsumgütern ist unter Datenschutzbeauftragten umstritten, da deren Arbeitsweise Anlass zu Bedenken gibt, personenbezogene Daten preiszugeben. Die Offenbarung, dass ein Amazon-Team Alexa-Sprachbefehle und daraufhin Offenlegungen über ähnliche Testprogramme bei Google und Apple hört, hat die Aufmerksamkeit der europäischen und amerikanischen Regulierungsbehörden und Gesetzgeber geweckt. Der Aufruhr veranlasste sogar einige Echo-Besitzer, ihre Geräte vom Stromnetz zu trennen.
Inmitten des Rückschlags unterbrachen sowohl Apple als auch Google ihre eigenen menschlichen Bewertungsprogramme. Amazon seinerseits begann, Alexa-Benutzern zu erlauben, ihre Sprachaufzeichnungen von der manuellen Überprüfung auszuschließen und änderte seine Datenschutzrichtlinien, um eine Erklärung aufzunehmen, dass Menschen ihre Aufzeichnungen anhören können.
Berichte von Informations- und Intercept-Technologie-Websites im letzten Jahr beschäftigten sich mit der menschlichen Rolle beim Training der Software für Sicherheitskameras. Die Seiten berichteten, dass Mitarbeiter Clips verwendeten, die Kunden über eine App geteilt hatten, um die Bildverarbeitungsalgorithmen zu trainieren.
Amazon informiert die Kunden nicht besonders über seinen Fehlerbehebungsprozess für die Cloud-Kamera. In seinen Allgemeinen Geschäftsbedingungen behält sich das Unternehmen das Recht vor, von Geräten aufgenommene Bilder, Audio- und Videodateien zu verarbeiten, um seine Produkte und Dienstleistungen zu verbessern.
In einer Frage und Antwort zur Cloud-Kamera auf der Website von Amazon heißt es: „Nur Sie oder Personen, mit denen Sie Ihre Kontoinformationen geteilt haben, können Ihre Clips einsehen, es sei denn, Sie entscheiden sich, einen Clip direkt an uns zur Fehlerbehebung zu senden. Sie haben auch die Möglichkeit, Clips per E-Mail oder Social Media zu teilen.“
Die Cloud-Kamera-Teams in Indien und Rumänien wissen nicht, wie das Unternehmen Clips zur Kommentierung auswählt, so drei der Befragten. Sie sagten jedoch, dass es keine offensichtlichen technischen Störungen im Filmmaterial gäbe, die eine Einreichung zur Fehlersuche erfordern würden.