Get Even More Visitors To Your Blog, Upgrade To A Business Listing >>

Der EU-Gesetzgeber sieht einen abgestuften Ansatz zur Regulierung der generativen KI vor

Die EU-Gesetzgeber im Europäischen Parlament nähern sich der Frage, wie sie die generative KI angehen können, während sie daran arbeiten, ihre Verhandlungsposition festzulegen, damit die nächste Phase der Gesetzgebungsverhandlungen in den kommenden Monaten beginnen kann.

Die Hoffnung ist daher, Dass bis Ende des Jahres ein endgültiger Konsens über den Gesetzentwurf des Blocks zur Regulierung der KI erreicht werden kann.

„Dies ist das Letzte, was noch in den Verhandlungen steht“, sagt MdEP Dragos Tudorache, der Ko-Berichterstatter für das KI-Gesetz der EU, in einem Interview mit TechCrunch über die Gespräche der Abgeordneten über generative KI. „Während wir sprechen, kreuzen wir die letzten ‚T‘s und punktieren die letzten ‚I‘s. Und irgendwann nächste Woche hoffe ich, dass wir tatsächlich schließen – was bedeutet, dass wir irgendwann im Mai wählen werden.“

Der Rat hat seine Position zu der Verordnung bereits im Dezember angenommen. Aber wo die Mitgliedstaaten es weitgehend vorzogen, das Vorgehen gegen die generative KI auf zusätzliche Rechtsvorschriften zur Umsetzung zu verschieben, werden die Abgeordneten voraussichtlich vorschlagen, dass dem Gesetz selbst strenge Anforderungen hinzugefügt werden.

In den letzten Monaten haben die Lobbyisten der Technologiegiganten natürlich in die entgegengesetzte Richtung gedrängt, wobei Unternehmen wie Google und Microsoft für eine generative KI plädierten, um eine regulatorische Ausgliederung der kommenden EU-KI-Regeln zu erreichen.

Wo die Dinge enden werden, bleibt offen. Tudorache diskutiert jedoch die wahrscheinliche Position des Parlaments in Bezug auf die generative KI-Technologie im Gesetz und schlägt vor, dass die Abgeordneten zu einem mehrschichtigen Ansatz tendieren – in der Tat drei Schichten – einer, um die Verantwortlichkeiten in der gesamten KI-Wertschöpfungskette anzugehen; ein weiterer, um sicherzustellen, dass grundlegende Modelle einige Leitplanken erhalten; und ein drittes, um spezifische Inhaltsprobleme anzugehen, die mit generativen Modellen verbunden sind, wie z. B. ChatGPT von OpenAI.

Der Bericht beschreibt detailliert, wie sich Big Tech auf die EU stützt, um Allzweck-KI nicht zu regulieren

Nach derzeitiger Auffassung der Abgeordneten würde eine dieser drei Ebenen für alle allgemeinen KI (GPAIs) gelten – ob groß oder klein; grundlegende oder nicht grundlegende Modelle – und sich auf die Regulierung der Beziehungen in der KI-Wertschöpfungskette konzentrieren.

„Wir denken, dass es eine Regelungsebene geben muss, die besagt, dass ‚Unternehmen A‘, das eine Allzweck-[KI] auf den Markt bringt, eine Verpflichtung gegenüber ‚Unternehmen B‘ nachgelagert hat, das die Allzweck-[AI] kauft und tatsächlich gibt es ist ein Zweck“, erklärt er. „Weil es einen Zweck hat, der zu einem hohen Risiko werden kann, benötigt es bestimmte Informationen. Um [dem KI-Gesetz] zu entsprechen, muss erklärt werden, wie das Modell trainiert wurde. Die Genauigkeit der Datensätze aufgrund von Verzerrungen [usw.].“

Eine zweite vorgeschlagene Ebene würde sich mit grundlegenden Modellen befassen – indem einige spezifische Verpflichtungen für Hersteller dieser Basismodelle festgelegt werden.

„Angesichts ihrer Leistungsfähigkeit, ihrer Ausbildung und ihrer Vielseitigkeit glauben wir, dass die Anbieter dieser grundlegenden Modelle bestimmte Dinge tun müssen – sowohl ex ante … als auch während der Lebensdauer des Modells“, sagt er. „Und es hat mit Transparenz zu tun, es hat wieder damit zu tun, wie sie trainieren, wie sie testen, bevor sie auf den Markt kommen. Also im Grunde, was ist das Maß an Sorgfalt und Verantwortung, das sie als Entwickler dieser Modelle haben?“

Die von den Abgeordneten der dritten Ebene vorgeschlagene dritte Schicht würde speziell auf generative KI abzielen – das heißt auf eine Teilmenge von GPAIs/Grundlagenmodellen, wie etwa große Sprachmodelle oder generative Kunst- und Musik-KIs. Hier sind die Gesetzgeber, die an der Festlegung des Mandats des Parlaments arbeiten, der Ansicht, dass diese Instrumente noch spezifischere Verantwortlichkeiten benötigen; sowohl in Bezug auf die Art der Inhalte, die sie produzieren können (mit frühen Risiken im Zusammenhang mit Desinformation und Verleumdung); und in Bezug auf die heikle (und zunehmend umstrittene) Frage des urheberrechtlich geschützten Materials, das zum Trainieren von KIs verwendet wird.

„Wir erfinden kein neues Urheberrechtsregime, weil es bereits Urheberrechtsgesetze gibt. Was wir sagen … muss es eine Dokumentation und Transparenz über das Material geben, das vom Entwickler beim Training des Modells verwendet wurde“, betont er. „Damit die Inhaber dieser Rechte nachher sagen können, hey, Moment mal, was hast du meine Daten verwendet, du verwendest meine Songs, du hast meinen wissenschaftlichen Artikel verwendet – naja, vielen Dank, das war gesetzlich geschützt, also schuldest du mir etwas – oder nein. Dafür werden die bestehenden Urheberrechtsgesetze verwendet. Das ersetzen oder tun wir nicht im KI-Gesetz. Wir bringen das nur nach innen.“

Die Kommission hat den Entwurf des KI-Gesetzes vor vollen zwei Jahren vorgeschlagen, einen risikobasierten Ansatz zur Regulierung der Anwendungen künstlicher Intelligenz dargelegt und den Mitgesetzgebern des Blocks, dem Parlament und dem Rat, die nicht geringe Aufgabe gestellt, die Welt zu passieren erste horizontale KI-Verordnung.

Bis zur Verabschiedung dieses geplanten EU-KI-Regelwerks ist es noch ein weiter Weg. Aber es werden Fortschritte erzielt, und bis Ende des Jahres könnte eine Einigung zwischen den Abgeordneten und den Mitgliedstaaten auf einen endgültigen Text erzielt werden, so Tudorache – der feststellt, dass Spanien, das im Juli die turnusmäßige sechsmonatige Ratspräsidentschaft übernimmt, eifrig ist auf der Datei zu liefern. Obwohl er auch einräumt, dass es wahrscheinlich noch viele Meinungsverschiedenheiten zwischen den Abgeordneten und den Mitgliedstaaten geben wird, die ausgearbeitet werden müssen. Ein endgültiger Zeitplan bleibt also ungewiss. (Und vorherzusagen, wie die Triloge hinter verschlossenen Türen der EU verlaufen werden, ist nie eine exakte Wissenschaft.)

Eines ist klar: Die Bemühungen sind zeitgemäß – wenn man bedenkt, wie der KI-Hype in den letzten Monaten in die Höhe geschossen ist, angeheizt durch Entwicklungen bei leistungsstarken generativen KI-Tools wie DALL-E und ChatGPT.

Die Aufregung um den boomenden Einsatz von generativen KI-Tools, die es jedem ermöglichen, Werke wie schriftliche Kompositionen oder visuelle Bilder zu produzieren, indem er nur ein paar einfache Anweisungen eingibt, wurde durch die wachsende Besorgnis über das Potenzial für schnell skalierende negative Auswirkungen gemildert, die mit der angepriesenen Produktivität einhergehen Vorteile.

Der EU-Gesetzgeber steht im Mittelpunkt der Debatte – und erregt vielleicht mehr globale Aufmerksamkeit als sonst –, da er vor der kniffligen Aufgabe steht, herauszufinden, wie die neuen KI-Regeln des Blocks angepasst werden sollten, um sie auf die virale generative KI anzuwenden.

Der ursprüngliche Entwurf der Kommission schlug vor, künstliche Intelligenz zu regulieren, indem Anwendungen in verschiedene Risikobänder eingeteilt werden. Nach diesem Plan würde der Großteil der KI-Apps als risikoarm eingestuft – das heißt, sie entziehen sich jeglichen gesetzlichen Anforderungen. Auf der anderen Seite wäre eine Handvoll inakzeptabler Risikoanwendungsfälle vollständig verboten (wie z. B. das Social Credit Scoring nach chinesischem Vorbild). Dann, in der Mitte, würde der Rahmen Regeln auf eine dritte Kategorie von Apps anwenden, bei denen eindeutige potenzielle Sicherheitsrisiken (und/oder Risiken für Grundrechte) bestehen, die dennoch als beherrschbar erachtet werden.

Das KI-Gesetz enthält eine festgelegte Liste von „Hochrisiko“-Kategorien, die den Einsatz von KI in einer Reihe von Bereichen abdeckt, die Sicherheit und Menschenrechte berühren, wie z. B. Strafverfolgung, Justiz, Bildung, Beschäftigung, Gesundheitsversorgung und so weiter. Apps, die in diese Kategorie fallen, würden einem Regime der Pre- und Post-Market-Compliance unterliegen, mit einer Reihe von Verpflichtungen in Bereichen wie Datenqualität und Governance; und Minderung von Diskriminierung – mit der Möglichkeit der Durchsetzung (und Strafen), wenn sie gegen Anforderungen verstoßen.

Der Vorschlag enthielt auch eine weitere mittlere Kategorie, die für Technologien wie Chatbots und Deepfakes gilt – KI-gestützte Technologien, die einige Bedenken aufwerfen, aber nach Ansicht der Kommission nicht so viele Szenarien mit hohem Risiko. Solche Apps ziehen nicht den vollen Umfang der Compliance-Anforderungen im Entwurfstext nach sich, aber das Gesetz würde Transparenzanforderungen anwenden, die von Apps mit geringem Risiko nicht verlangt werden.

Als Erste in der Ausarbeitung von Gesetzen für ein sich so schnell entwickelndes, hochmodernes Technologiefeld zu sein, bedeutete, dass die EU am KI-Gesetz arbeitete, lange bevor der Hype um die generative KI zum Mainstream wurde. Und während sich die Gesetzgeber des Blocks in gewisser Weise schnell bewegten, kann sein Mitgesetzgebungsprozess ziemlich mühsam sein. Wie sich also herausstellt, werden zwei Jahre nach dem ersten Entwurf die genauen Parameter der KI-Gesetzgebung immer noch ausgearbeitet.

Die Mitgesetzgeber der EU im Parlament und im Rat sind befugt, den Entwurf zu überarbeiten, indem sie Änderungen vorschlagen und aushandeln. Es gibt also eine klare Gelegenheit für den Block, Schlupflöcher rund um die generative KI zu schließen, ohne auf spätere Gesetzesvorschläge warten zu müssen, mit der größeren Verzögerung, die dies mit sich bringen würde.

Trotzdem wird das EU-KI-Gesetz wahrscheinlich nicht vor 2025 in Kraft treten – oder sogar noch später, je nachdem, ob der Gesetzgeber beschließt, den App-Herstellern ein oder zwei Jahre zu geben, bevor die Durchsetzung greift. (Das ist ein weiterer Diskussionspunkt für die Abgeordneten, per Tudorache .)

Er betont, dass es wichtig sein wird, den Unternehmen genügend Zeit zu geben, sich auf die Einhaltung einer seiner Meinung nach „umfassenden und weitreichenden Verordnung“ vorzubereiten. Er betont auch, dass den Mitgliedstaaten Zeit eingeräumt werden muss, um sich auf die Durchsetzung der Vorschriften für solch komplexe Technologien vorzubereiten, und fügt hinzu: „Ich glaube nicht, dass alle Mitgliedstaaten bereit sind, die Rolle der Regulierungsbehörde zu übernehmen. Sie brauchen selbst Zeit, um Expertise aufzubauen, Expertise zu finden, Expertise davon zu überzeugen, für den öffentlichen Sektor zu arbeiten.

„Sonst wird es eine solche Trennung zwischen den Realitäten der Branche, den Realitäten der Implementierung und der Regulierung geben, und Sie werden nicht in der Lage sein, die beiden Welten ineinander zu zwingen. Und das wollen wir auch nicht. Also denke ich, jeder braucht diese Verzögerung.“

Die Abgeordneten versuchen auch, den Entwurf des KI-Gesetzes auf andere Weise zu ändern – unter anderem durch den Vorschlag eines zentralisierten Durchsetzungselements, das als eine Art Backstop für Behörden auf Ebene der Mitgliedstaaten fungieren soll; sowie einige zusätzliche verbotene Anwendungsfälle vorzuschlagen (z. B. Predictive Policing; ein Bereich, in dem der Rat möglicherweise versuchen wird, zurückzudrängen).

„Wir ändern grundlegend die Governance gegenüber dem Kommissionstext und auch dem Ratstext“, sagt Tudorache zum Punkt der Durchsetzung. „Wir schlagen eine viel stärkere Rolle für das vor, was wir das KI-Büro nennen. Einschließlich der Möglichkeit gemeinsamer Ermittlungen. Also versuchen wir, so scharfe Zähne wie möglich zu setzen. Und vermeiden Sie auch Silos. Wir wollen den Effekt von 27 unterschiedlichen Gerichtsbarkeiten [d. h. von fragmentierten Vollstreckungen und Forum-Shopping, um der Vollstreckung zu entgehen].

Der EU-Ansatz zur Regulierung von KI stützt sich auf den historischen Umgang mit der Produkthaftung. Angesichts der Formbarkeit von KI-Technologien und der Länge/Komplexität der „KI-Wertschöpfungskette“ – d. h. wie viele Einheiten möglicherweise an der Entwicklung, Iteration, Anpassung und Bereitstellung von KI-Modellen beteiligt sind – ist diese Anpassung offensichtlich ein Problem. Daher ist die Klärung der Haftung entlang dieser Kette eine absolute Herausforderung für den Gesetzgeber.

Der risikobasierte Ansatz wirft auch spezifische Fragen darüber auf, wie mit dem besonders viralen Geschmack der generativen KI umgegangen werden soll, der in den letzten Monaten in das allgemeine Bewusstsein gedrungen ist, da diese Tools nicht unbedingt einen eindeutigen Anwendungsfall haben. Sie können ChatGPT verwenden, um beispielsweise Recherchen durchzuführen, Fiktion zu generieren, eine Trauzeugenrede zu schreiben, Marketingtexte zu produzieren oder Texte zu einem kitschigen Popsong zu schreiben – mit der Einschränkung, dass das, was es ausgibt, möglicherweise weder genau noch sehr gut ist (und es wird sicherlich nicht original sein).

In ähnlicher Weise könnten generative KI-Kunstwerkzeuge für verschiedene Zwecke verwendet werden: Als inspirierende Hilfe für die künstlerische Produktion, um beispielsweise Kreative zu entlasten, damit sie ihre beste Arbeit leisten können; oder die Rolle eines qualifizierten menschlichen Illustrators durch billigere Maschinenausgaben zu ersetzen.

(Einige argumentieren auch, dass generative KI-Technologien noch spekulativer sind; dass sie überhaupt nicht für allgemeine Zwecke geeignet sind, sondern eher von Natur aus fehlerhaft und unfähig sind; sie stellen eine Mischung aus stumpfer Investition dar, die der Gesellschaft ohne Erlaubnis oder Zustimmung zu einem lähmend teuren Preis aufgezwungen wird und rechtezertrampelnde Suche nach gewinnbringenden Lösungen im Stil einer Fischereiexpedition.)

Das Kernanliegen der Abgeordneten besteht daher darin, sicherzustellen, dass zugrunde liegende generative KI-Modelle wie die GPT von OpenAI nicht einfach der risikobasierten Regulierung vollständig ausweichen können, indem sie behaupten, sie hätten keinen festgelegten Zweck.

Anbieter von generativen KI-Modellen könnten auch argumentieren, dass sie ein Werkzeug anbieten, das allgemein genug ist, um sich jeglicher Haftung nach dem kommenden Gesetz zu entziehen – es sei denn, es gibt Klarheit in der Verordnung über relative Verbindlichkeiten und Verpflichtungen in der gesamten Wertschöpfungskette.

Ein offensichtlich unfaires und dysfunktionales Szenario wäre, dass alle regulierten Risiken und Haftungen nachgelagert nur auf die Anbieter bestimmter Apps mit hohem Risiko übertragen würden. Da diese Entitäten mit ziemlicher Sicherheit generative KI-Modelle verwenden würden, die von anderen vorgelagert entwickelt wurden – und somit keinen Zugriff auf die Daten, Gewichtungen usw. hätten, die zum Trainieren des Kernmodells verwendet werden –, was es ihnen unmöglich machen würde, KI einzuhalten Handeln Sie Verpflichtungen, sei es in Bezug auf die Datenqualität oder die Minderung von Verzerrungen.

Dieser Aspekt des Vorschlags wurde bereits kritisiert, bevor der Hype um generative KI ernsthaft losging. Aber die Geschwindigkeit der Einführung von Technologien wie ChatGPT scheint die Parlamentarier von der Notwendigkeit überzeugt zu haben, den Text zu ändern, um sicherzustellen, dass die generative KI nicht der Regulierung entgeht.

Und obwohl Tudorache nicht in der Lage ist zu wissen, ob sich der Rat hier dem Sendungsbewusstsein der Parlamentarier anschließen wird, sagt er, er habe „das Gefühl“, dass sie sich anschließen werden – obwohl sie höchstwahrscheinlich versuchen, ihre eigenen „Optimierungen und Verbesserungen“ hinzuzufügen Glocken und Pfeifen“, wie genau der Text Allzweck-KIs behandelt.

In Bezug auf die nächsten Schritte wird es nach Abschluss der Diskussionen der Abgeordneten zu dem Dossier einige Abstimmungen im Parlament geben, um das Mandat anzunehmen. (Zuerst zwei Ausschussabstimmungen und dann eine Plenarabstimmung.)

Er prognostiziert, dass letzteres „sehr wahrscheinlich“ Anfang Juni in der Plenarsitzung stattfinden wird – mit dem Beginn von Trilog-Diskussionen mit dem Rat und einem Sprint, um während der sechs Monate des spanischen Ratsvorsitzes eine Einigung über einen Text zu erzielen . „Ich bin eigentlich ziemlich zuversichtlich … wir können mit der spanischen Präsidentschaft abschließen“, fügt er hinzu. „Sie sind sehr, sehr darauf bedacht, dies zum Flaggschiff ihrer Präsidentschaft zu machen.“

Auf die Frage, warum er glaubt, dass die Kommission es im ursprünglichen Vorschlag vermieden hat, sich mit generativer KI zu befassen, schlägt er vor, dass selbst vor ein paar Jahren nur sehr wenige Menschen erkannt haben, wie leistungsfähig – und potenziell problematisch – diese Technologie werden würde, noch wie schnell sich die Dinge auf diesem Gebiet entwickeln könnten . Es ist also ein Beweis dafür, wie schwierig es für den Gesetzgeber wird, Regeln für formwandelnde digitale Technologien festzulegen, die nicht bereits veraltet sind, bevor sie überhaupt den demokratischen Gesetzgebungsprozess durchlaufen haben.

Eher zufällig scheint der Zeitplan für das KI-Gesetz der EU aufzugehen – oder zumindest haben die Gesetzgeber der Region die Möglichkeit, auf die jüngsten Entwicklungen zu reagieren. (Natürlich bleibt abzuwarten, was sich in den nächsten etwa zwei Jahren der generativen KI noch herausbilden könnte, was diese jüngsten Bemühungen um die Zukunftssicherung erneut erschweren könnte.)

Angesichts des Tempos und des disruptiven Potenzials der neuesten Welle generativer KI-Modelle klingen die Abgeordneten sehr daran interessiert, dass andere ihrem Beispiel folgen – und Tudorache war einer von mehreren Parlamentariern, die sich Anfang dieser Woche in einem offenen Brief zu internationalen Bemühungen aufriefen bei der Festlegung einiger gemeinsamer Grundsätze für die KI-Governance zusammenzuarbeiten.

Der Brief bekräftigt auch das Engagement der Abgeordneten, „speziell auf grundlegende Modelle zugeschnittene Regeln“ festzulegen – mit dem erklärten Ziel, „menschenzentrierte, sichere und vertrauenswürdige“ KI zu gewährleisten.

Zusammen mit @brandobenifei habe ich als Ko-Berichterstatter des Europäischen Parlaments zum EU-Gesetz zur künstlichen Intelligenz einen politischen Aufruf zum Handeln zu einer sehr mächtigen künstlichen Intelligenz initiiert, der alle wichtigen politischen Gruppen im Parlament vereint, die am #AIAct arbeiten.

– Dragoș Tudorache (@IoanDragosT) 17. April 2023

Er sagt, der Brief sei als Antwort auf den offenen Brief geschrieben worden, der letzten Monat veröffentlicht wurde – unterzeichnet von Leuten wie Elon Musk (von dem inzwischen berichtet wurde, dass er versucht, seine eigene GPAI zu entwickeln) – in dem ein Moratorium für die Entwicklung mächtigerer Unternehmen gefordert wird generative KI-Modelle, um gemeinsame Sicherheitsprotokolle zu entwickeln.

„Ich habe Leute gesehen, die fragten, oh, wo sind die politischen Entscheidungsträger? Hören Sie, das Geschäftsumfeld ist besorgt, die Wissenschaft ist besorgt, und wo sind die politischen Entscheidungsträger – sie hören nicht zu. Und dann dachte ich, das machen wir hier in Europa“, sagt er zu TechCrunch. „Deshalb habe ich dann meine Kollegen zusammengebracht und gesagt, lasst uns tatsächlich eine offene Antwort darauf geben.“

„Wir sagen nicht, dass die Reaktion darin besteht, im Grunde innezuhalten und zu den Hügeln zu rennen. Aber tatsächlich wieder die Herausforderung [der Regulierung von KI] verantwortungsbewusst anzunehmen und etwas dagegen zu tun – weil wir es können. Wenn wir es nicht als Regulierungsbehörden tun, wer würde es dann tun?“ er addiert.

Die unterzeichnenden Abgeordneten glauben auch, dass die Aufgabe der KI-Regulierung so entscheidend ist, dass sie nicht nur warten sollten, in der Hoffnung, dass die Annahme des EU-KI-Gesetzes in einigen Jahren zu einem weiteren „Brüsseler Effekt“ führen wird, wie es geschah, nachdem der Block sein Datenschutzregime im Jahr 2018 aktualisiert hatte – was eine Reihe ähnlicher Gesetzgebungsbemühungen in anderen Gerichtsbarkeiten beeinflusste. Vielmehr muss diese KI-Regulierungsmission eine direkte Ermutigung beinhalten – denn der Einsatz ist einfach zu hoch.

„Wir müssen anfangen, uns aktiv an andere gleichgesinnte Demokratien [und andere] zu wenden, weil es ein globales Gespräch und eine globale, sehr ernsthafte Reflexion über die Rolle dieser mächtigen Technologie in unseren Gesellschaften und darüber geben muss, wie man einige grundlegende Technologien herstellt Regeln für die Zukunft“, fordert Tudorache.

Die Regeln aufheben, die die generative KI formen

Europa richtet KI-Forschungszentrum ein, um Verantwortlichkeitsregeln auf Big Tech anzuwenden

EU-Gesetzgeber sehen einen abgestuften Ansatz zur Regulierung der generativen KI von Natasha Lomas, der ursprünglich auf TechCrunch veröffentlicht wurde

The post Der EU-Gesetzgeber sieht einen abgestuften Ansatz zur Regulierung der generativen KI vor appeared first on Die neuesten Startup-News.


This post first appeared on Diese Eine Tägliche Gewohnheit Aufzugeben, Kann Ihr Sexualleben Verbessern, please read the originial post: here

Share the post

Der EU-Gesetzgeber sieht einen abgestuften Ansatz zur Regulierung der generativen KI vor

×

Subscribe to Diese Eine Tägliche Gewohnheit Aufzugeben, Kann Ihr Sexualleben Verbessern

Get updates delivered right to your inbox!

Thank you for your subscription

×