OpenAI bildet ein neues Team zur Untersuchung der Kindersicherheit


Unter der Beobachtung von Aktivisten – und Eltern – hat OpenAI ein neues Team gebildet, um Möglichkeiten zu untersuchen, wie verhindert werden kann, dass seine KI-Tools von Kindern missbraucht werden.

In einer neuen Stellenanzeige auf seiner Karriereseite, OpenAI verrät die Existenz eines Kindersicherheitsteams, das nach Angaben des Unternehmens mit Plattformrichtlinien-, Rechts- und Untersuchungsgruppen innerhalb von OpenAI sowie externen Partnern zusammenarbeitet, um „Prozesse, Vorfälle und Überprüfungen“ im Zusammenhang mit minderjährigen Benutzern zu verwalten.

Das Team ist derzeit auf der Suche nach einem Spezialisten für die Durchsetzung der Kindersicherheit, der für die Anwendung der OpenAI-Richtlinien im Zusammenhang mit KI-generierten Inhalten und die Arbeit an Überprüfungsprozessen im Zusammenhang mit „sensiblen“ (vermutlich kinderbezogenen) Inhalten verantwortlich sein wird.

Technologieanbieter einer bestimmten Größe investieren eine Menge Ressourcen in die Einhaltung von Gesetzen wie der US-amerikanischen Children’s Online Privacy Protection Rule, die Kontrollen darüber vorschreibt, worauf Kinder im Web zugreifen können – und was nicht – und auf welche Arten von Daten Unternehmen zugreifen dürfen kann darauf kassieren. Daher ist die Tatsache, dass OpenAI Kindersicherheitsexperten einstellt, keine völlige Überraschung, insbesondere wenn das Unternehmen eines Tages mit einer erheblichen Zahl minderjähriger Benutzer rechnet. (Die aktuellen Nutzungsbedingungen von OpenAI erfordern die Zustimmung der Eltern für Kinder im Alter von 13 bis 18 Jahren und verbieten die Nutzung für Kinder unter 13 Jahren.)

Aber die Bildung des neuen Teams, die mehrere Wochen nach der Bekanntgabe einer Partnerschaft mit Common Sense Media zur Zusammenarbeit an kinderfreundlichen KI-Richtlinien und der Gewinnung des ersten Bildungskunden durch OpenAI erfolgt, deutet auch darauf hin, dass OpenAI vorsichtig ist, gegen die Richtlinien in diesem Bereich zu verstoßen Nutzung von KI durch Minderjährige – und negative Presse.

Kinder und Jugendliche wenden sich zunehmend an GenAI-Tools, um nicht nur Hilfe zu erhalten Schularbeit aber persönliche Probleme. Laut a Umfrage Laut dem Center for Democracy and Technology geben 29 % der Kinder an, ChatGPT zur Bewältigung von Angstzuständen oder psychischen Problemen genutzt zu haben, 22 % für Probleme mit Freunden und 16 % für familiäre Konflikte.

Manche sehen darin ein wachsendes Risiko.

Letzten Sommer beeilten sich Schulen und Hochschulen, ChatGPT aus Angst vor Plagiaten und Fehlinformationen zu verbieten. Seitdem haben es einige getan umgedreht ihre Verbote. Aber nicht alle sind vom Potenzial von GenAI für etwas Gutes überzeugt, weist darauf hin Umfragen Wie das britische Safer Internet Centre, das herausfand, dass mehr als die Hälfte der Kinder (53 %) berichten, dass sie gesehen haben, wie Menschen in ihrem Alter GenAI auf negative Weise nutzen – zum Beispiel durch die Erstellung glaubwürdiger falscher Informationen oder durch Bilder, die dazu dienen, jemanden zu verärgern.

Im September veröffentlichte OpenAI eine Dokumentation für ChatGPT in Klassenzimmern mit Eingabeaufforderungen und einer FAQ, um Pädagogen eine Anleitung zur Verwendung von GenAI als Lehrmittel zu bieten. In einem der Support-ArtikelOpenAI räumte ein, dass seine Tools, insbesondere ChatGPT, „Ausgaben produzieren können, die nicht für alle Zielgruppen oder alle Altersgruppen geeignet sind“, und riet zur „Vorsicht“ bei der Exposition gegenüber Kindern – selbst solchen, die die Altersanforderungen erfüllen.

Die Forderungen nach Richtlinien für die Nutzung von GenAI durch Kinder nehmen zu.

Die UN-Organisation für Erziehung, Wissenschaft und Kultur (UNESCO) Ende letzten Jahres geschoben dass Regierungen den Einsatz von GenAI im Bildungswesen regulieren, einschließlich der Einführung von Altersgrenzen für Benutzer und Richtlinien zum Datenschutz und zur Privatsphäre der Benutzer. „Generative KI kann eine enorme Chance für die menschliche Entwicklung sein, aber sie kann auch Schaden und Vorurteile verursachen“, sagte Audrey Azoulay, Generaldirektorin der UNESCO, in einer Pressemitteilung. „Ohne öffentliches Engagement und die notwendigen Schutzmaßnahmen und Vorschriften der Regierungen kann es nicht in die Bildung integriert werden.“

source-116

Leave a Reply