Die nächste Grenze der militärischen KI: Ihr Arbeitscomputer


Es ist wahrscheinlich schwer Stellen Sie sich vor, Sie wären das Ziel von Spionage, aber das Ausspionieren von Mitarbeitern ist die nächste Herausforderung der militärischen KI. Überwachungstechniken, die aus autoritären Diktaturen bekannt sind, wurden nun auf amerikanische Arbeiter umgestellt.

Im letzten Jahrzehnt sind einige Dutzend Unternehmen entstanden, die Ihren Arbeitgebern Abonnements für Dienste wie „Open-Source-Intelligence“, „Reputationsmanagement“ und „Insider-Bedrohungsbewertung“ verkaufen – Tools, die ursprünglich oft von Verteidigungsunternehmen für nachrichtendienstliche Zwecke entwickelt wurden. Da in den letzten Jahren Deep Learning und neue Datenquellen verfügbar wurden, sind diese Tools deutlich ausgefeilter geworden. Mit ihnen kann Ihr Chef möglicherweise erweiterte Datenanalysen nutzen, um Arbeitsorganisationen, interne Leaker und Kritiker des Unternehmens zu identifizieren.

Das ist kein Geheimnis Die gewerkschaftliche Organisierung erfolgt bereits von großen Unternehmen wie Amazon überwacht. Aber die Ausweitung und Normalisierung von Instrumenten zur Nachverfolgung von Arbeitnehmern hat trotz ihrer bedrohlichen Herkunft kaum Beachtung gefunden. Wenn sie so mächtig sind, wie sie behaupten – oder sogar in diese Richtung gehen – brauchen wir eine öffentliche Diskussion darüber, wie sinnvoll es ist, diese Informationsmunition in private Hände zu übertragen. KI auf militärischem Niveau sollte unsere nationalen Feinde ins Visier nehmen, die nominell unter der Kontrolle gewählter demokratischer Regierungen stehen, wobei Sicherheitsvorkehrungen getroffen wurden, um ihren Einsatz gegen Bürger zu verhindern. Uns allen sollte die Vorstellung Sorgen bereiten, dass dieselben Systeme nun von jedem, der zahlen kann, in großem Umfang eingesetzt werden können.

FiveCast zum Beispiel begann als Anti-Terror-Startup verkaufen an das Militäraber es hat seine Tools an Unternehmen und Strafverfolgungsbehörden übergeben, die sie zum Sammeln und Analysieren nutzen können alle Arten öffentlich zugänglicher Daten, einschließlich Ihrer Social-Media-Beiträge. Anstatt nur Schlüsselwörter zu zählen, prahlt FiveCast damit, dass es „kommerzielle Sicherheit” und andere Angebote können Netzwerke von Menschen identifizieren, Text in Bildern lesen und sogar Objekte, Bilder, Logos, Emotionen und Konzepte in Multimedia-Inhalten erkennen. Sein Tool „Supply Chain Risk Management“ zielt darauf ab, zukünftige Störungen vorherzusagen Streiksfür Unternehmen.

Netzwerkanalysetools, die zur Identifizierung terroristischer Zellen entwickelt wurden, können daher verwendet werden, um wichtige Arbeitsorganisatoren zu identifizieren, damit Arbeitgeber dies illegal tun können Entlassen Sie sie, bevor eine Gewerkschaft entsteht. Der Standardverwendung dieser Tools während der Rekrutierung kann Arbeitgeber dazu veranlassen, die Einstellung solcher Organisatoren von vornherein zu vermeiden. Und quantitative Risikobewertungsstrategien, die das Land vor drohenden Angriffen warnen sollen, können nun Investitionsentscheidungen beeinflussen, etwa ob Investitionen in Bereichen und Zulieferern getätigt werden sollen, bei denen man davon ausgeht, dass sie über eine hohe Fähigkeit zur Arbeitsorganisation verfügen.

Es ist nicht klar, ob diese Tools ihrem Hype gerecht werden können. Netzwerkanalysemethoden weisen beispielsweise Risiken anhand einer Assoziation zu, was bedeutet, dass Sie bereits allein deshalb markiert werden können, wenn Sie einer bestimmten Seite oder einem bestimmten Konto folgen. Diese Systeme können auch durch gefälschte Inhalte ausgetrickst werden, die mit neuer generativer KI leicht in großem Maßstab produziert werden können. Und einige Unternehmen bieten ausgefeilte maschinelle Lerntechniken wie Deep Learning an, um Inhalte zu identifizieren, die wütend wirken, was vermutlich auf Beschwerden hinweist, die zu einer Gewerkschaftsbildung führen könnten, obwohl die Emotionserkennung nachweislich der Fall ist voreingenommen und auf falschen Annahmen beruhend.

Doch die Leistungsfähigkeit dieser Systeme wächst rasant. Unternehmen werben damit, bald KI-Technologien der nächsten Generation in ihre Überwachungstools zu integrieren. Neue Funktionen versprechen, die Erkundung verschiedener Datenquellen durch Eingabeaufforderungen zu erleichtern, aber das ultimative Ziel scheint ein routinemäßiges, halbautomatisches, gewerkschaftszerstörendes Überwachungssystem zu sein.

Darüber hinaus funktionieren diese Abonnementdienste auch dann, wenn sie nicht funktionieren. Es spielt möglicherweise keine Rolle, ob ein als Unruhestifter abgestempelter Mitarbeiter wirklich verärgert ist; Führungskräfte und Unternehmenssicherheit könnten dennoch auf die Anschuldigung reagieren und unfaire Vergeltungsmaßnahmen gegen sie ergreifen. Vage Gesamturteile über die „Emotionen“ einer Belegschaft oder das öffentliche Image eines Unternehmens lassen sich derzeit nicht auf ihre Richtigkeit überprüfen. Und die bloße Präsenz dieser Systeme hat wahrscheinlich eine abschreckende Wirkung auf gesetzlich geschützte Verhaltensweisen, einschließlich der Arbeitsorganisation.

source-114

Leave a Reply