160 Kemp House, City Road, London EC1V 2NX 812 (345) 6789 Support@webart-studio.com
From the election lie to GameStop: How to stop social media algorithms from hurting us

Fehlinformationen, direkte Lügen, Verschwörungstheorien und Randbewegungen hatten immer reale Konsequenzen. Faschisten in Italien und Deutschland, einst eine kleine Gruppe von Parias und Gadflies, die lustig aussehende Hüte und Schnurrbärte trugen, gelang es, die politischen Systeme dieser Länder nach dem Ersten Weltkrieg zu entführen und sie auf einen Kollisionskurs mit den liberalen Demokratien der Welt zu bringen. Wir könnten wieder an einem solchen Scheideweg stehen.

Kleine Gruppen engagierter Enthusiasten nutzen die Kraft der sozialen Medien und ihrer Algorithmen, um ihre ansonsten quixotischen und bizarren Ideen zum Mainstream zu machen. Diese Art von Bewegungen sind üblicher geworden und ihre Geschwindigkeit hat zugenommen. Der jüngste Fall: Reddits WallStreetBets-Gruppe von lustigen Männern (und Frauen), die den Kurs der GameStop-Aktie in die Stratosphäre treiben, um Hedge-Fonds aus Leerverkäufen herauszuholen. Während die ersten Leute, die die Aktie aufpumpten, dies ohne algorithmische Komplizenschaft taten, breitete sich der Kaufrausch dank der Auswahl und Empfehlung von Geschichten, Nachrichten und Testimonials, die die populistische Kampagne verherrlichten, schnell über ihren Kreis hinaus aus.

Mom- und Pop-Investoren werden bereits verletzt, da der Marktwert von GameStop wie ein Stein fällt und erneut den Buchwert widerspiegelt. Die online verbreiteten Lügen über die „gestohlenen Wahlen“ werden die Attraktivität der Republikanischen Partei in den Vororten weiter einschränken, die Wahrscheinlichkeit verringern, dass sie Präsidentschaftswahlen gewinnt, und unsere Demokratie in diesem Prozess schwächen, was vom Gleichgewicht zweier wettbewerbsfähiger Parteien abhängt. Dies kommt zu dem Tribut hinzu, den die Große Lüge bereits gefordert hat, einschließlich des Aufstands im Kapitol.

Was tun gegen den Kollateralschaden, der manchmal auftritt, wenn soziale Medien durch die Verwendung von Algorithmen Lügen und Randideen verstärken? Bisher sind die Lösungen, die Gesetzgeber und Experten entwickelt haben, hartnäckig und konzentrieren sich häufig auf das völlige Verbot innovativer Technologien. Sie laufen Gefahr, Fehlinformationen, Desinformation und Verschwörungstheorien zu verschlimmern.

Das Problem der algorithmischen Verstärkung

Um zu verstehen, warum diese Lösungen nicht ausreichen, müssen wir das Problem selbst neu definieren. Benutzer von sozialen Medien, sowohl diejenigen, die Inhalte veröffentlichen, als auch diejenigen, die sie konsumieren, profitieren von ihrem Informationsaustausch – ob es sich um echte Nachrichten handelt, die sie über die Welt informieren, oder um Verschwörungstheorien, die ihren Fantasien und niedrigsten Wünschen nachgeben. Während sich diese Interaktion für diese Personen als relativ harmlos erweisen mag, schafft sie das, was Ökonomen als negative Externalität bezeichnen. Dies tritt auf, wenn die Handlungen von zwei oder mehr Parteien eines wirtschaftlichen Austauschs schädliche Auswirkungen haben, die andere Menschen in der Gesellschaft betreffen. Denken Sie an einen Protest im wirklichen Leben, der auf der Facebook-Seite einer Verschwörungstheoretiker organisiert wurde. Die negative Äußerlichkeit tritt auf, wenn der Protest gewalttätig wird und zu Sachschäden und Todesfällen führt.

Es gibt verschiedene Möglichkeiten, wie wir negative externe Effekte in der realen Welt minimieren können. Die digitale Welt ist nicht anders. (Wir werden gleich auf einige dieser möglichen Korrekturen eingehen.)

Was auch immer die ultimative Lösung sein mag, wir müssen zuerst verstehen, was viele Smart Techies für die Ursache des gesellschaftlichen Schadens durch die Verbreitung digitaler Lügen halten: algorithmische Verstärkung. Um das Engagement auf ihren Websites zu maximieren, müssen Social-Media-Unternehmen herausfinden, wie sie Inhalte mit ihren Benutzern teilen können, anstatt sie zu verpflichten, diese absichtlich zu suchen. Digitale Plattformen tendieren dazu, dies auf eine Weise zu tun, die mehr Werbeeinnahmen generiert. Werbetreibende wiederum suchen nach mehr Ansichten und Klicks. Plattformen verwenden Strategien, die Benutzerinhalte anzeigen, die sie für relevant und interessant halten, und die als Tor zu mehr Inhalten dienen.

Künstliche Intelligenz (KI) eingeben: Sie wählt Inhalte aus und empfiehlt sie, die auf jeden Benutzer zugeschnitten sind (unabhängig davon, ob sie von den Verbindungen eines Benutzers oder von seinen Verbindungen gepostet werden) oder von Personen, denen der Benutzer folgt. Die Idee ist, dass Verbraucher eher auf dieses Material klicken und es teilen. Betrachten Sie YouTube: Während seine Community-Standards verhindern, dass sein Algorithmus sogenannte Borderline-Inhalte empfiehlt (z. B. Lügen über Covid-19), ist die Plattform so konzipiert, dass Benutzer sowohl hinsichtlich der Zeitdauer, die sie auf der Website verbringen, als auch hinsichtlich ihrer Gesamtdauer einbezogen werden Interaktion basierend auf dem, was sie sehen.

Da YouTube Videos mit mehr Likes, Kommentaren und Wiedergabezeiten empfiehlt, kann es dazu führen, dass Nutzer stärkere und extremere Inhalte erhalten. Da der ansprechendste Inhalt häufig der polarisierendste, sexualisierteste und ansonsten extremste ist, empfiehlt der YouTube-Algorithmus möglicherweise Videos, die Gewalt verherrlichen und Verschwörungstheorien vertreten. Eine Person kann damit beginnen, „Alt-Light“ -Inhalte anzusehen, die die Richtigkeit der Wahlen 2020 in Frage stellen, und in kurzer Zeit „rechtsextremen“ Videos ausgesetzt sein, in denen Neonazis gelobt werden. Radikalisierung und Polarisation können auftreten.

Warum das Beenden der algorithmischen Verstärkung keine Lösung ist

Kein Wunder also, dass einige Leute, die im digitalen Raum arbeiten, auf algorithmische Verstärkung als ultimativen Schuldigen für Schäden hinweisen, die online durch soziale Medien verursacht werden. Sie wollen es daher verbieten oder zumindest ein Moratorium verhängen. Es muss jedoch noch festgestellt werden, dass die algorithmische Verstärkung tatsächlich die Ursache des Problems ist, und selbst wenn dies der Fall ist, wäre ein Verbot die richtige Lösung.

Erstens ist nicht klar, dass die algorithmische Verstärkung die Ursache für die Verbreitung von Fehlinformationen ist. Verschwörungstheorien gehen digitalen Plattformen und dem Internet weit voraus; Sie sind so alt wie das geschriebene Wort. Zu den Politikern, die Verschwörungstheorien verbreitet und Gewalt mit modernen Mitteln angestiftet haben, gehören Mussolini (Radio / Film), Hitler (Radio / Film), Perón (Radio / Fernsehen), Milosovic (Fernsehen) und Ruuas Hutu Power (Radio). Wir haben am 6. Januar auch erfahren, dass Politiker und ihre Tagalongs, wenn sie Reden im Fleisch halten, auch Lügen verbreiten und Chaos anregen können. Ihre Fähigkeit, Verschwörungstheorien auf altmodische Weise zu erweitern, ist möglicherweise leistungsfähiger als jeder Algorithmus.

Außerdem könnten Menschen, die anfällig für Verschwörungen sind, auch die Art von Menschen sein, die mit größerer Wahrscheinlichkeit länger auf Websites wie YouTube bleiben. In diesem Fall würden sie ohne die Hilfe eines Algorithmus aktiv nach Hardcore-Inhalten suchen.

Zweitens ist es nicht offensichtlich, dass die Kosten für die Auswahl von AI-gestützten Inhalten die Vorteile überwiegen, selbst wenn die algorithmische Verstärkung für die Verbreitung von Unwahrheiten verantwortlich ist. Alle Arten von Unternehmen, die ihre Waren auf Facebook vermarkten und verkaufen, verlassen sich auf ihren Algorithmus, um Augäpfel für ihre Anzeigen zu erfassen und den Traffic auf ihre Website zu lenken. Ein Verbot bedroht Millionen von Arbeitsplätzen und die Zufriedenheit der Verbraucher, da KI auch Wahrheit und Inhalte fördern kann, die nicht nur von den Benutzern hoch geschätzt werden, sondern auch von sozialem Nutzen sind.

Drittens gibt es immer unbeabsichtigte Fallstricke beim Verbot von Verhaltensweisen, selbst wenn sie eindeutig zu sozialem Schaden beitragen. Nehmen Sie Betäubungsmittel. Die Behandlung der Drogenabhängigkeit verursacht Kosten für die öffentliche Gesundheit, unabhängig davon, ob die Drogen legal sind. Es gibt jedoch zusätzliche Kosten, wenn sie verboten sind, von der Durchsetzung von Verboten bis hin zu gewalttätigen Kartellkriegen.

In ähnlicher Weise würde das Verbot der algorithmischen Verstärkung auf Mainstream-Medienseiten Anreize für wilde Anbieter von Verschwörungstheorien schaffen, um eine Regulierung zu vermeiden, indem neue Plattformen eingeführt werden, die verbotene Algorithmen mit rücksichtsloser Hingabe verwenden würden. Dies könnte zu noch stärkeren Lügen durch KI führen, die durch Community-Standards und Mäßigung nicht behindert wird. Hardcore-Süchtige werden ihnen folgen. Parler und Gab sind lebende Beweise.

Darüber hinaus ist nicht klar, dass selbst wenn wir mit Sicherheit sagen könnten, dass die algorithmische Verstärkung einen sozialen Nettoschaden verursacht, der beste Weg, um das Problem anzugehen, ein Verbot ist. Stattdessen verfügen die politischen Entscheidungsträger über zusätzliche Instrumente, um „soziale Probleme“ zu begrenzen, die nach unserem besten Wissen noch nicht in Bezug auf Big Tech diskutiert wurden, aber möglicherweise bessere Lösungen bieten.

Vielversprechendere Lösungen

Die Regulierungsbehörden können die Menge des produzierten „sozialen Bösen“ begrenzen und es dem Markt ermöglichen, seine Verwendung zuzuweisen. Wie? Indem Sie eine Obergrenze für die Gesamtmenge an fehlerhaften Inhalten festlegen, das Recht zur Verbreitung zuweisen und dann den Marktbörsen erlauben, zu entscheiden, wer von diesem Recht Gebrauch macht. Dies spiegelt ein Obergrenzen- und Handelssystem wider, das die Kohlenstoffemissionen auf eine festgelegte Menge begrenzt und es den Verschmutzern dann ermöglicht, Emissionsgenehmigungen zu handeln. Bei Online-Plattformen kann dies die Begrenzung der algorithmischen Verstärkung beinhalten. Dies würde es den Technologieplattformen ermöglichen, die nichts dagegen haben, Top-Dollar für den Kauf von „KI-Genehmigungen“ zu zahlen, aber es würde möglicherweise auch andere Plattformen dazu anregen, in neue Methoden zur Auswahl von Inhalten zu investieren – mit mehr menschlicher Diskretion – ähnlich wie Cap und Handel mit Kohlenstoff Emissionen treiben Innovationen in saubere Energie.

Die politischen Entscheidungsträger könnten alternativ eine Steuer auf die Auswahl von KI-Inhalten erheben und deren Kosten indirekt erhöhen. Das „soziale Übel“ würde teurer werden und seine Menge reduzieren. Die „Sündensteuern“ auf Zigarettenverkäufe haben dazu beigetragen, das Rauchen von Gelegenheitsrauchern zu reduzieren. Diese Steuer mindert nicht nur den Schaden einzelner Raucher, die mit dem Rauchen aufhören, sondern reduziert auch das Rauchen aus zweiter Hand und die teurere Gesundheitsversorgung aufgrund von Lungenerkrankungen.

Wie würde eine solche Steuer funktionieren? Besteuern Sie am einfachsten jede Verwendung künstlicher Intelligenz, die Inhalte der Social-Media-Unternehmen identifiziert und empfiehlt. Plattformen würden die Steuer wahrscheinlich an ihre Kunden weitergeben, entweder über eine Paywall oder eher mit teurerer Werbung. Dies wiederum wird die Technologieplattformen dazu anregen, Inhaltsvorschläge von Redakteuren zu priorisieren, die qualitativ hochwertige Nachrichten auswählen und empfehlen. Hierfür gibt es bereits einen Präzedenzfall in Form einer Verbrauchsteuer auf Finanztransaktionen, die beim Kauf von Finanzinstrumenten wie Aktien, Anleihen und Derivaten erhoben werden. Das Beste daran ist, dass der digitale Fußabdruck dieser Transaktionen genutzt wird, wodurch ein funktionsfähiges Modell für Big Tech entsteht.

Die Bemühungen digitaler Plattformen, die Auswahl von KI-Inhalten zu melden, müssen nicht lästig sein. Unternehmen könnten ihre Verwendung der algorithmischen Verstärkung verfolgen und an das IRS senden, ähnlich wie bei den Mehrwertsteuern (MwSt.) In europäischen Ländern, wo Unternehmen jede Transaktion in einer Wertschöpfungskette erfassen und letztendlich den Steuerbehörden melden (häufig elektronisch und real) Zeit). Glücklicherweise verfolgen Social-Media-Unternehmen ihre Verwendung der algorithmischen Verstärkung wahrscheinlich bereits auf irgendeine Weise, und gelegentliche IRS-Audits könnten sie ehrlich halten.

Schließlich könnte die Dynamik, die die algorithmische Verstärkung in negative reale Effekte umsetzt, einer Liquiditätskrise oder einem Banklauf ähneln, bei dem negative Rückkopplungseffekte Fehlinformationen verstärken. Dinge, die nicht wahr sind, erhalten möglicherweise mehr Aufmerksamkeit als diejenigen, die wahr sind. Wenn ja, dann könnten anstelle von Cap und Trade oder Steuern die besten Regulierungsinstrumente näher an denen liegen, die von der SEC und der Federal Reserve verwendet werden: Anforderungen an die Einreichung (Algorithmen), bevor sie verwendet werden; Leistungsschalter, wenn Fehlinformationen viral werden, und ein zentrales Informationsdepot als „Wahrsager der letzten Instanz“. Es könnte so einfach sein, eine Regel zu verabschieden, nach der ein Inhalt, sobald er eine „Freigabeschwelle“ erreicht, einer behördlichen Genehmigung unterzogen werden muss, bevor Social-Media-Unternehmen ihn ihren Nutzern weiter empfehlen können.

Rechtsexperten, Gesetzgeber, Bürger des Alltags und große Technologieunternehmen können eine Rolle bei der Verbesserung des Online-Diskurses spielen. Was auch immer letztendlich mit der Regulierung der algorithmischen Verstärkung oder einem anderen Versuch der Regierung geschieht, die Geschäftsmodelle und das Verhalten der Technologieplattformen zu beeinflussen, es ist unbedingt erforderlich, einen systematischen Ansatz zu verwenden, der auf der politikökonomischen Untersuchung externer Effekte beruht.

James D. Long ist außerordentlicher Professor für Politikwissenschaft und Mitbegründer des Political Economy Forum an der University of Washington. Er veranstaltet das “Weder frei noch fair?” Podcast über Wahlsicherheit und globale Demokratie; Er hat Wahlen in Kenia, Ghana, Afghanistan, Uganda, Ägypten und Südafrika beobachtet.

Victor Menaldo ist Professor für Politikwissenschaft, Mitbegründer des Political Economy Forum an der University of Washington und Mitautor von “Authoritarianism and the Elite Origins of Democracy”. Derzeit schreibt er ein Buch über die „vierte industrielle Revolution“.

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Stadtplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologie und Transaktionen zu erlangen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihres Unternehmens unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden und auf Folgendes zuzugreifen:

  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • gated Vordenker-Inhalte und ermäßigter Zugang zu unseren wertvollen Veranstaltungen wie Transform
  • Netzwerkfunktionen und mehr

Mitglied werden

Leave a Reply