Das US-Gericht des 5. Bezirks beantragt eine Regulierung des KI-Einsatzes von Anwälten in Rechtsakten

Ein Bundesberufungsgericht in New Orleans erwägt einen Vorschlag, der Anwälte verpflichten würde, zu bestätigen, ob sie bei der Ausarbeitung von Schriftsätzen Programme der künstlichen Intelligenz eingesetzt haben, und dabei entweder eine unabhängige menschliche Überprüfung der von KI generierten Textgenauigkeit zu bestätigen oder sich in ihren Gerichtsanträgen nicht auf KI zu stützen.

In einer Mitteilung ausgegeben Am 21. November enthüllte das 5. US-Berufungsgericht die scheinbar erste vorgeschlagene Regelung unter den 13 Bundesberufungsgerichten des Landes, die sich auf die Regelung der Nutzung generativer KI-Tools, einschließlich ChatGPT von OpenAI, durch Anwälte konzentriert, die vor dem Gericht auftreten.

Screenshot der Regel des 5. Kreises Quelle: Berufungsgericht des 5. Kreises

Die vorgeschlagene Regelung würde für Anwälte und Prozessbeteiligte gelten, die ohne rechtlichen Vertreter vor Gericht erscheinen, und sie dazu verpflichten, zu bestätigen, dass sowohl Zitate als auch rechtliche Analysen auf ihre Genauigkeit hin überprüft wurden, wenn bei der Erstellung einer Akte ein KI-Programm eingesetzt wurde. Anwälte, die ungenaue Angaben zu ihrer Einhaltung der Regel machen, können ihre Anträge für ungültig erklären und es könnten Sanktionen verhängt werden, wie in der vorgeschlagenen Regel dargelegt. Der 5. Bezirk ist bis zum 4. Januar für öffentliche Rückmeldungen zu dem Vorschlag geöffnet.

Die Einführung des vorgeschlagen Die Entscheidung fiel zeitlich mit der landesweiten Auseinandersetzung von Richtern mit der raschen Verbreitung generativer künstlicher Intelligenzprogramme wie ChatGPT zusammen. Sie prüfen die Notwendigkeit von Schutzmaßnahmen bei der Integration dieser sich entwickelnden Technologie in Gerichtssäle. Die Herausforderungen, die mit der Nutzung von KI durch Anwälte verbunden sind, gewannen im Juni an Bedeutung, als zwei Anwälte aus New York mit Sanktionen belegt wurden, weil sie ein juristisches Dokument eingereicht hatten, das sechs von ChatGPT erstellte gefälschte Fallzitate enthielt.

Verwandt: Der Sturz von Sam Altman zeigt, dass Biden nicht richtig mit KI umgeht

Im Oktober entschied das US-Bezirksgericht für den östlichen Bezirk von Texas eingeführt eine Regel, die am 1. Dezember in Kraft tritt und die Anwälte verpflichtet, KI-Programme einzusetzen, um „jeglichen computergenerierten Inhalt zu bewerten und zu authentifizieren“.

In Stellungnahmen zur Regeländerung betonte das Gericht, dass „häufig die Ergebnisse solcher Tools sachlich oder rechtlich falsch sein könnten“ und betonte, dass KI-Technologie „niemals das abstrakte Denken und die Problemlösungsfähigkeiten von Anwälten ersetzen sollte“.

Zeitschrift: Trainieren Sie KI-Modelle, um sie als NFTs zu verkaufen. LLMs sind große Lügenmaschinen: AI Eye