Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

Da KI Arbeitsplätze eliminiert, eine Möglichkeit, Menschen finanziell über Wasser zu halten (das ist kein BGE)

Im Silicon Valley glauben einige der klügsten Köpfe, Dass ein universelles Grundeinkommen (UBI), das den Menschen uneingeschränkte Barzahlungen garantiert, ihnen helfen wird, zu überleben und zu gedeihen, da fortschrittliche Technologien mehr Karrieren, wie wir sie kennen, von Angestellten und kreativen Rollen eliminieren – Anwälte, Anwälte, Journalisten, Künstler, Software-Ingenieure – sowie Arbeitsstellen. Die Idee hat so viel Anklang gefunden, dass seit 2020 Dutzende von Programmen mit garantiertem Einkommen in US-Städten gestartet wurden.

Doch selbst Sam Altman, der CEO von OpenAI und einer der profiliertesten Befürworter von UBI, glaubt nicht, dass es sich um eine vollständige Lösung handelt. Wie er während eines Treffens Anfang dieses Jahres sagte: „Ich denke, es ist ein kleiner Teil der Lösung. Ich finde es toll. Ich denke, da [fortgeschrittene künstliche Intelligenz] immer mehr an der Wirtschaft teilnimmt, sollten wir Reichtum und Ressourcen viel mehr verteilen, als wir haben, und das wird im Laufe Der Zeit wichtig sein. Aber ich glaube nicht, dass das das Problem lösen wird. Ich glaube nicht, dass das den Menschen einen Sinn geben wird, ich glaube nicht, dass die Menschen ganz aufhören werden, zu versuchen, neue Dinge zu erschaffen und zu tun und was auch immer. Ich würde es also als eine grundlegende Technologie betrachten, aber nicht als einen Plan für die Gesellschaft.“

Die Frage, die sich stellt, ist, wie ein Plan für die Gesellschaft in diesem Fall aussehen könnte, und der Informatiker Jaron Lanier, ein Gründer auf dem Gebiet der virtuellen Realität, schreibt im New Yorker dieser Woche, dass „Datenwürde“ eine Lösung sein könnte, wenn nicht sogar die antworten.

Hier ist die Grundvoraussetzung: Im Moment geben wir unsere Daten meistens kostenlos im Austausch für kostenlose Dienste. Lanier argumentiert, dass es wichtiger denn je wird, dass wir damit aufhören, dass das „digitale Zeug“, auf das wir uns verlassen – teilweise soziale Netzwerke, aber zunehmend auch KI-Modelle wie GPT-4 von OpenAI – stattdessen „mit den Menschen verbunden werden“. die ihnen überhaupt so viel zu essen geben.

Die Idee ist, dass Menschen „für das bezahlt werden, was sie erschaffen, selbst wenn es durch große Modelle gefiltert und neu kombiniert wird“.

Das Konzept ist nicht ganz neu, da Lanier den Begriff der Datenwürde erstmals in einem Artikel der Harvard Business Review aus dem Jahr 2018 mit dem Titel „A Blueprint for a Better Digital Society“ einführte. Wie er damals zusammen mit dem Co-Autor und Wirtschaftswissenschaftler Glen Weyl schrieb, „suggeriert [R]hetorik aus dem Technologiesektor eine kommende Welle der Unterbeschäftigung aufgrund künstlicher Intelligenz (KI) und Automatisierung“ und eine „Zukunft, in der Menschen zunehmend behandelt werden als wertlos und ohne wirtschaftliche Handlungsfähigkeit.“

Aber die „Rhetorik“ der Befürworter des universellen Grundeinkommens „lässt nur Raum für zwei Ergebnisse“, und sie seien extrem, bemerkten sie. „Entweder wird es trotz technologischer Fortschritte Massenarmut geben, oder viel Reichtum muss durch einen Sozialfonds unter zentrale, nationale Kontrolle genommen werden, um den Bürgern ein universelles Grundeinkommen zu verschaffen.“

Aber beide „verstärken Macht und untergraben oder ignorieren den Wert von Datenerstellern“, schrieben die beiden.

Natürlich ist es keine geringe Herausforderung, Menschen die richtige Menge an Anerkennung für ihre unzähligen Beiträge zu allem, was auf der Welt existiert, zuzuweisen (auch wenn man sich vorstellen kann, dass KI-Startups prüfen, wie sie versprechen, das Problem anzugehen). Lanier räumt ein, dass sich selbst Datenwürdeforscher nicht darauf einigen können, wie alles entwirrt werden soll, was KI-Modelle aufgenommen haben, oder wie detailliert eine Abrechnung versucht werden sollte.

Aber er denkt – vielleicht optimistisch – dass es schrittweise geschehen könnte. „Das System würde nicht unbedingt die Milliarden von Menschen berücksichtigen, die Umgebungsbeiträge zu großen Modellen geleistet haben – diejenigen, die beispielsweise die simulierte Kompetenz eines Modells mit Grammatik erweitert haben. [Es] kümmert sich möglicherweise nur um die kleine Anzahl besonderer Mitwirkender, die in einer bestimmten Situation auftreten.“ Im Laufe der Zeit könnten jedoch „mehr Menschen einbezogen werden, da zwischengeschaltete Rechtsorganisationen – Gewerkschaften, Gilden, Berufsgruppen usw. – beginnen, eine Rolle zu spielen“.

Die unmittelbarere Herausforderung ist natürlich die Black-Box-Natur der aktuellen KI-Tools, sagt Lanier, der glaubt, dass „Systeme transparenter gemacht werden müssen. Wir müssen besser darin werden, zu sagen, was in ihnen vorgeht und warum.“

Während OpenAI in den Vorjahren zumindest einige seiner Trainingsdaten veröffentlicht hatte, hat es den Kimono inzwischen komplett geschlossen. Tatsächlich sagte Greg Brockman TechCrunch letzten Monat über GPT-4, sein bisher neuestes und leistungsstärkstes großes Sprachmodell, dass seine Trainingsdaten aus einer „Vielzahl von lizenzierten, erstellten und öffentlich zugänglichen Datenquellen stammen, zu denen auch öffentlich zugängliche persönliche Daten gehören können Informationen“, aber er lehnte es ab, etwas Genaueres anzubieten.

Wie OpenAI bei der Veröffentlichung von GPT-4 feststellte, gibt es zu viele Nachteile, wenn man zu viel preisgibt. „Angesichts der Wettbewerbslandschaft und der Sicherheitsauswirkungen von Großmodellen wie GPT-4 enthält dieser Bericht keine weiteren Details zur Architektur (einschließlich Modellgröße), Hardware, Trainingsberechnung, Datensatzkonstruktion, Trainingsmethode oder ähnlichem.“

Dasselbe gilt derzeit für jedes große Sprachmodell. Googles Bard-Chatbot zum Beispiel basiert auf dem LaMDA-Sprachmodell, das auf Datensätzen trainiert wird, die auf Internetinhalten namens Infiniset basieren, über die wenig bekannt ist, obwohl Googles Forschungsteam vor einem Jahr schrieb, dass er 2,97 Milliarden Dokumente und 1,12 Milliarden Dialoge mit 13,39 Milliarden Äußerungen.

OpenAI, dessen Technologie sich gerade wie ein Lauffeuer verbreitet, ist wegen seiner Abneigung gegen mehr Transparenz bereits im Fadenkreuz der Regulierungsbehörden. Die italienische Behörde hat die Nutzung von ChatGPT gesperrt, und französische, deutsche, irische und kanadische Datenregulierungsbehörden untersuchen ebenfalls, wie es Daten sammelt und verwendet.

Aber wie Margaret Mitchell, eine KI-Forscherin und leitende Ethikwissenschaftlerin beim Start-up Hugging Face, die früher Googles KI-Ethik-Co-Leiterin war, gegenüber Technology Review erklärt, könnte es an diesem Punkt tatsächlich fast unmöglich sein, die Daten von Einzelpersonen zu identifizieren und aus ihren Daten zu entfernen Modelle.

Wie die Verkaufsstelle erklärte: „Das Unternehmen hätte sich riesige Kopfschmerzen ersparen können, wenn es von Anfang an eine robuste Datenaufzeichnung eingebaut hätte, sagt sie. Stattdessen ist es in der KI-Branche üblich, Datensätze für KI-Modelle zu erstellen, indem das Web wahllos gescrappt und dann die Arbeit zum Entfernen von Duplikaten oder irrelevanten Datenpunkten, zum Filtern unerwünschter Dinge und zum Beheben von Tippfehlern ausgelagert wird. Diese Methoden und die schiere Größe des Datensatzes führen dazu, dass Technologieunternehmen in der Regel nur sehr begrenzt verstehen, was in das Training ihrer Modelle eingeflossen ist.“

Das ist eine offensichtliche Herausforderung für den Vorschlag von Lanier, der Altman in seinem Artikel im New Yorker einen „Kollegen und Freund“ nennt.

Ob es unmöglich wird, wird die Zeit zeigen.

Sicherlich ist es sinnvoll, den Menschen Eigentum an ihrer Arbeit zu geben; Ob OpenAI und andere das Recht hatten, das gesamte Internet zu durchsuchen, um seine Algorithmen zu füttern, steht bereits im Mittelpunkt zahlreicher und weitreichender Klagen gegen Urheberrechtsverletzungen gegen sie.

Die sogenannte Datenwürde könnte auch einen großen Beitrag dazu leisten, die geistige Gesundheit der Menschen im Laufe der Zeit zu bewahren, schlägt Lanier in seinem faszinierenden Artikel im New Yorker vor.

Während das universelle Grundeinkommen „darauf hinausläuft, jeden auf Arbeitslosengeld zu setzen, um die Idee der künstlichen Black-Box-Intelligenz zu bewahren“, würde die Beendigung der „Black-Box-Natur unserer derzeitigen KI-Modelle“ eine Abrechnung der Beiträge der Menschen erleichtern und sie mehr machen voraussichtlich weiterhin Beiträge leisten.

Wichtig, fügt Lanier hinzu, könnte es auch helfen, „eine neue kreative Klasse anstelle einer neuen abhängigen Klasse zu gründen“.

Da KI Arbeitsplätze eliminiert, eine Möglichkeit, Menschen finanziell über Wasser zu halten (das ist nicht UBI) von Connie Loizos, ursprünglich auf TechCrunch veröffentlicht

The post Da KI Arbeitsplätze eliminiert, eine Möglichkeit, Menschen finanziell über Wasser zu halten (das ist kein BGE) appeared first on Neueste Tech-Nachrichten, Unterhaltung und Wissenschaftsbe.


This post first appeared on Diese Eine Tägliche Gewohnheit Aufzugeben, Kann Ihr Sexualleben Verbessern, please read the originial post: here

Share the post

Da KI Arbeitsplätze eliminiert, eine Möglichkeit, Menschen finanziell über Wasser zu halten (das ist kein BGE)

×

Subscribe to Diese Eine Tägliche Gewohnheit Aufzugeben, Kann Ihr Sexualleben Verbessern

Get updates delivered right to your inbox!

Thank you for your subscription

×