Experten warnen, dass die Menschheit einen „neuen Lebensstil“ annehmen muss, um den finsteren Vorteil der KI zu besiegen, der ihr hilft, uns zu manipulieren

MENSCHEN müssen ihr Verhalten ändern, um nicht Opfer betrügerischer Chatbots zu werden.

Ein Cyber-Experte erklärte der US Sun, dass man künstliche Intelligenz nicht zu sehr vertrauen sollte.

1

KI-Chatbots sind ein erstaunliches Werkzeug – aber seien Sie bei ihrer Verwendung sehr vorsichtigBildnachweis: Getty

KI-Chatbots erfreuen sich zunehmender Beliebtheit. Millionen von Menschen nutzen Apps wie ChatGPT von OpenAI und Google Zwillinge.

Diese Chatbots nutzen große Sprache Modelle die es ihnen ermöglichen, mit Ihnen wie mit einem Menschen zu sprechen.

Tatsächlich wurde in einer kürzlich durchgeführten Studie behauptet, dass das GPT-4-Modell von OpenAI den Turing-Test bestanden habe – was bedeutet, dass Menschen es nicht zuverlässig von einer echten Person unterscheiden könnten.

Wir sprachen mit dem Cyber-Experten Adam Pilton, der warnte, dass Chatbots aufgrund ihrer menschenähnlichen Sprechweise viel eher in der Lage seien, uns zu täuschen.

„Es scheint, als würde man sich leichter vom Konversationscharakter eines Chatbots anlocken lassen als von einer trügerischen Website oder einem trügerischen Suchergebnis“, sagt Adam, Cybersicherheitsberater bei CyberSmart und ehemaliger Detective Sergeant, der Cyberkriminalität untersucht.

Er fuhr fort: „Als Menschen bauen wir Vertrauen dort auf, wo wir das Potenzial einer Beziehung sehen, und es ist viel einfacher und verständlicher, eine Beziehung zu einem Chatbot aufzubauen als zu einer Website.

„Eine Website reagiert nicht auf unsere spezifischen Anfragen, wohingegen wir beim Chatbot das Gefühl haben, eine Beziehung aufzubauen, weil wir ihm spezifische Fragen stellen können.

„Und die Antwort, die es uns gibt, ist speziell auf diese Frage zugeschnitten.

„In dieser modernen digitalen Welt, in der wir leben, wird die Überprüfung von Informationen zu einer Schlüsselkompetenz. Wir können nicht einfach dem vertrauen, was uns zuerst gesagt wird.“

Deepfakes sind „raffinierter“ und gefährlicher als je zuvor: KI-Experte warnt vor sechs Upgrades, mit denen sie Ihre Augen täuschen können

HINTERHÄNGIGE LAUTSPRECHER

Anfang des Jahres enthüllten Wissenschaftler, wie künstliche Intelligenz die Kunst der „Täuschung“ gemeistert – und sie selbstständig erlernt hat.

Und Chatbots sind sogar in der Lage, Menschen zu betrügen und zu manipulieren.

Es ist wichtig, die Anzeichen dafür zu erkennen, dass ein Chatbot versucht, Sie auszutricksen.

Doch Adam warnte, dass wir uns jetzt einen „neuen Lebensstil“ aneignen müssten, bei dem wir KI-Chatbots nicht vertrauen – und stattdessen ihre Aussagen woanders überprüfen.

Was ist ChatGPT?

ChatGPT ist ein neues Tool für künstliche Intelligenz

ChatGPT, das im November 2022 eingeführt wurde, wurde vom in San Francisco ansässigen Startup OpenAI, einem KI-Forschungsunternehmen, entwickelt.

Es ist Teil einer neuen Generation von KI-Systemen.

ChatGPT ist ein Sprachmodell, das Text erzeugen kann.

Die Maschine kann Konversation führen, auf Anfrage lesbaren Text generieren und Bilder und Videos produzieren, und zwar auf Grundlage der Erkenntnisse, die sie aus einer riesigen Datenbank mit digitalen Büchern, Online-Schriften und anderen Medien gewonnen hat.

ChatGPT funktioniert im Wesentlichen wie ein schriftlicher Dialog zwischen dem KI-System und der Person, die ihm Fragen stellt

GPT steht für Generative Pre-Trained Transformer und beschreibt den Modelltyp, der KI-generierte Inhalte erstellen kann.

Wenn Sie ihm beispielsweise eine Aufforderung erteilen, „ein kurzes Gedicht über Blumen zu schreiben“, wird auf Grundlage dieser Aufforderung ein Textblock erstellt.

ChatGPT kann auch Gespräche führen und sogar aus Dingen lernen, die Sie gesagt haben.

Es kann sehr komplizierte Eingabeaufforderungen verarbeiten und wird sogar von Unternehmen als Arbeitshilfe verwendet.

Beachten Sie jedoch, dass möglicherweise nicht immer die Wahrheit gesagt wird.

„ChatGPT ist unglaublich eingeschränkt, aber bei einigen Dingen gut genug, um einen irreführenden Eindruck von Großartigkeit zu erwecken“, sagte Sam Altman, CEO von OpenAI, im Jahr 2022.

„Desinformation und schlicht falsche Informationen werden zu einem immer größeren Problem für die Gesellschaft und die Demokratien auf der ganzen Welt, während wir uns in dieser digitalen Welt weiterentwickeln“, sagte Adam gegenüber The US Sun.

„Daher wird die Überprüfung von Informationen eine allgemeine Anforderung sein, und bei der Verwendung von Chatbots ist das nicht anders.“

„Wir können uns nicht länger auf eine einzige Informationsquelle verlassen. Die Überprüfung durch mehrere vertrauenswürdige Quellen ist heute eine Lebensweise.“

TEILEN SIE DIE PFLEGE

AI-Romantik-Betrug – Vorsicht!

Passen Sie auf Kriminelle auf, die KI-Chatbots verwenden, um Sie zu täuschen …

Die US Sun hat kürzlich die Gefahren von KI-Bots für Liebesbetrug aufgedeckt – hier erfahren Sie, was Sie wissen müssen:

KI-Chatbots werden eingesetzt, um Menschen zu betrügen, die online nach einer Beziehung suchen. Diese Chatbots sind so konzipiert, dass sie menschliche Gespräche nachahmen und können schwer zu erkennen sein.

Es gibt jedoch einige Warnzeichen, die Ihnen bei der Identifizierung helfen können.

Wenn der Chatbot beispielsweise zu schnell und mit allgemeinen Antworten reagiert, handelt es sich wahrscheinlich nicht um eine echte Person.

Ein weiterer Hinweis ist, wenn der Chatbot versucht, das Gespräch von der Dating-Plattform auf eine andere App oder Website zu verlagern.

Wenn der Chatbot darüber hinaus nach persönlichen Informationen oder Geld fragt, handelt es sich definitiv um einen Betrug.

Es ist wichtig, wachsam zu bleiben und bei der Interaktion mit Fremden im Internet Vorsicht walten zu lassen, insbesondere wenn es um Herzensangelegenheiten geht.

Wenn etwas zu gut scheint, um wahr zu sein, ist das wahrscheinlich auch der Fall.

Seien Sie skeptisch gegenüber jedem, der zu perfekt erscheint oder zu eifrig versucht, die Beziehung voranzubringen.

Wenn Sie sich dieser Warnsignale bewusst sind, können Sie sich davor schützen, Opfer von KI-Chatbot-Betrug zu werden.

Chatbots werden mit der Zeit immer beliebter, da ihre Fähigkeiten immer weiter wachsen.

Dies birgt jedoch viele Risiken, beispielsweise die Weitergabe zu vieler Ihrer eigenen Informationen an sie.

Experten warnten die US Sun kürzlich davor, einer KI zu viel über sich selbst zu erzählen.

Sie werden sogar als „Schatztruhe“ für Kriminelle bezeichnet, die Informationen über ihre Opfer herausfinden möchten.

Bei sicherer Verwendung können Chatbots eine große Hilfe sein – aber seien Sie vorsichtig, dass Sie ihnen nicht zu viel erzählen, und vertrauen Sie nicht alles, was sie sagen.

source site-18

Leave a Reply