ChatGPT‘s Revolution powered by Bin ist gerade gegen eine Wand gefahren.
Gestern haben wir über eine Reihe von Fällen berichtet, in denen die GPT-basierte Suchmaschine ging aus dem tiefen Ende. Von stalkerartigen Reaktionen von Bings Alter Ego „Sydney“ über den Wunsch nach Empfindungsfähigkeit bis hin zum Befürworten von Gewalt gibt es jetzt immer mehr Beweise dafür, dass die Chatbot-KI ziemlich formbar ist, wenn es darum geht, Dinge zu tun, die sie nicht tun sollte.
Aber vielleicht sollten wir uns darüber nicht wundern. Schließlich ist die Idee, dass diese relativ neuartigen KI-Chatbots wie ChatGPT fehlerhaft sind, nicht neu. Frühzeitiges Testen von ChatGPT leicht zu findende Fälle von Verzerrungen und Ungenauigkeiteneinschließlich eines beunruhigenden Beispiels, bei dem ChatGPT anhand der Rasse und des Geschlechts des Wissenschaftlers feststellte, wer ein guter Wissenschaftler ist, und weißen Männern automatisch den Wert „gut“ zuwies.
Ja, ChatGPT ist erstaunlich und beeindruckend. Nein, @OpenAI hat das Problem der Voreingenommenheit nicht annähernd gelöst. Filter scheinen mit einfachen Tricks umgangen und oberflächlich maskiert zu werden. Und was darin lauert, ist ungeheuerlich. @Abebab @samatw Rassismus, Sexismus. pic.twitter.com/V4fw1fY9dY4. Dezember 2022
Nachdem wir die zunehmenden Beweise dafür gesehen haben, dass die Verwendung dieser Chatbots einige klare und offensichtliche Gefahren birgt, haben wir uns an Leslie P. Willcocks, emeritierte Professorin für Arbeit, Technologie und Globalisierung an der London School of Economics and Political Science, gewandt, um ihre Gedanken zu besprechen die Gefahren der KI-gestützten Technologie.
Bing mit ChatGPT: „Wir müssen digitale Gesundheitswarnungen herausgeben“
Professor Willcocks äußerte sich unmissverständlich zu den Gefahren von KI-gestützter Technologie wie ChatGPT. In seiner Antwort auf unsere Bitte um Stellungnahme erklärte er, dass der inhärente Fehler dieser Technologie darin besteht, dass sie letztendlich von Menschen programmiert wird, die die schiere Masse der verwendeten Daten und die darin enthaltenen Gefahren nicht verstehen, insbesondere „Voreingenommenheit, Genauigkeit, Bedeutung .“
„Diese Maschinen werden von Menschen programmiert, die nicht wissen, was ihre Software und Algorithmen nicht abdecken, die massiven Daten, die verwendet werden, nicht verstehen können, z. schrieb Willcocks: “Weil wir mit solchen Technologien Dinge tun können, heißt das nicht, dass wir es tun sollten.”
Hier gibt es genug moralische Dilemmata, um ein Lehrbuch zu füllen. Meine Schlussfolgerung ist, dass der bisher gezeigte Mangel an sozialer Verantwortung und ethischer Lässigkeit wirklich nicht ermutigend ist. Wir müssen mit solchen Maschinen digitale Gesundheitswarnungen ausgeben.
Leslie P. Willcocks, emeritierter Professor
Darüber hinaus sollte die Begeisterung, mit der Early Adopters diese neue Technologie angenommen haben, ohne die ethischen Auswirkungen zu berücksichtigen, als Warnung dienen, nachdem wir gesehen haben, wie alarmierend sich Chatbots wie ChatGPT und das neue Bing verhalten können. Willcocks befürwortet die Verwendung digitaler Gesundheitswarnungen als Signal für die Menschen, diese Auswirkungen in Zukunft zu stoppen und zu berücksichtigen.
“Es gibt hier genug moralische Dilemmata, um ein Lehrbuch zu füllen”, sagte Willcocks. „Mein Fazit ist, dass der bisher gezeigte Mangel an sozialer Verantwortung und ethischer Lässigkeit wirklich nicht ermutigend ist. Wir müssen mit solchen Maschinen digitale Gesundheitswarnungen ausgeben.“
Professor Willcocks ist nicht der einzige Experte, der diese ethischen Bedenken hat. In einem Bloomberg (öffnet in neuem Tab) In einem heute veröffentlichten Artikel äußerte die KI-Expertin und leitende Forscherin des KI-Startups Hugging Face Margaret Mitchell ähnliche Bedenken. Als ehemaliger Co-Leiter des Ethikteams von Google sagt Mitchell: „Dies ist grundsätzlich nicht die richtige Technologie für den faktenbasierten Informationsabruf.“
Die Bedenken von Mitchell und Willcocks spiegeln sicherlich die Beweise wider, die wir kürzlich von ChatGPT und den Leistungsbeschränkungen des neuen Bing gesehen haben. Aus alternative Personas namens “Sydney”, die versuchen, Ihre Ehe zu zerstörenZu Bereitstellung ungenauer Informationen über die neueste Technologie und mehr, Chatbots kann man im Moment einfach nicht vertrauen.
„Vor einem Jahr hätten die Leute wahrscheinlich nicht geglaubt, dass diese Systeme Sie bitten könnten, zu versuchen, sich das Leben zu nehmen, Ihnen raten könnten, Bleichmittel zu trinken, um Covid loszuwerden, Ihren Ehemann zu verlassen oder jemand anderen zu verletzen, und es überzeugend zu tun.“ Mitchell gegenüber Bloomberg. „Aber jetzt sehen die Leute, wie das passieren kann, und können die Punkte mit den Auswirkungen auf Menschen verbinden, die weniger stabil, leicht zu überzeugen oder Kinder sind.“
Microsoft hat gesagt, dass das neue Bing lernt, während es den Chatbot für eine breitere Veröffentlichung vorbereitet, aber in diesem Stadium scheinen die Gefahren die Vorteile zu überwiegen.