ChatGPT und andere ähnliche Systeme nutzen riesige Datenmengen, um überzeugende, menschenähnliche Antworten auf Benutzeranfragen zu erstellen. Es wird erwartet, dass sie die Art und Weise, wie Menschen online nach Informationen suchen, dramatisch verändern werden. Doch bisher ist das "Wissen" des viralen Chatbots in der Zeit eingefroren. Seine Datenbank basiert auf den Inhalten des Internets im Stand vom September 2021. Es war nicht möglich, das Internet in Echtzeit zu durchsuchen.
Wenn man beispielsweise in der kostenlosen Version fragt, wann das letzte Erdbeben die Türkei erschüttert hat oder ob Donald Trump noch lebt, antwortet man: "Es tut mir leid, aber ich kann keine Echtzeitinformationen liefern." Die Unfähigkeit von ChatGPT, aktuelle Ereignisse zu berücksichtigen, hat einige potenzielle Benutzer abgeschreckt. "Wenn diese Funktionalität oder Fähigkeit nicht vorhanden wäre, müssten Sie zu Google oder Twitter oder zu Ihrem bevorzugten Nachrichtenportal gehen. Jetzt können Sie dies als Quelle für die neuesten Nachrichten, Klatsch und aktuelle Ereignisse nutzen", sagt Tomas Chamorro-Premuzic, Professorin für Wirtschaftspsychologie.
"Die Hauptauswirkung ist also, dass viele der eingehenden Fragen und Anfragen, die an Suchmaschinen oder Nachrichtenagenturen gingen, absorbiert werden", sagte er. Aber Chamorro-Premuzic fügte hinzu, dass die Nutzung der Plattform für die Suche ein zweischneidiges Schwert sein könnte. "Ich denke, das ist eine gute Sache, wenn es darum geht, schnelle Antworten auf Ihre drängenden, brennenden Fragen zu erhalten", sagte er, warnte jedoch, dass die über ChatGPT bereitgestellten Informationen ohne Quellenangabe irreführend sein könnten.
"Wenn es nicht darum geht, die Quellen zuverlässig anzugeben, sondern einfach nur eine Mischung und einen Mischmasch dessen darstellt, was da draußen existiert … dann geht es um die Genauigkeit und die Leute gehen einfach davon aus, dass die Informationen, die sie dort erhalten, zuverlässig sind." es ist nicht." OpenAI wurde bereits von US-Aufsichtsbehörden wegen der Gefahr der Generierung falscher Informationen durch ChatGPT unter die Lupe genommen. Anfang des Jahres sandte die Federal Trade Commission (FTC) einen Brief an das von Microsoft unterstützte Unternehmen und bat um Informationen darüber, wie es mit Risiken für den Ruf der Menschen umgeht. Als Reaktion darauf sagte der CEO von OpenAI, das Unternehmen werde mit der FTC zusammenarbeiten.
Es gab eine Reihe von Gründen, warum ChatGPT bisher nicht im Internet gesucht hat: zum einen die Rechenkosten. Es wird oft gesagt, dass jede einzelne Abfrage OpenAI ein paar Cent kostet. Noch wichtiger ist jedoch, dass die begrenzten Daten ein wertvolles Sicherheitsnetz darstellten. ChatGPT konnte nicht damit beginnen, schädliches oder illegales Material wiederzugeben, das zufällig als Reaktion auf eine Anfrage neu ins Netz hochgeladen wurde. Es konnte keine Fehlinformationen verbreiten, die von schlechten Akteuren über Politik oder Entscheidungen im Gesundheitswesen verbreitet wurden, weil es keinen Zugriff darauf hatte. Auf die Frage, warum es so lange gedauert habe, Benutzern die Suche nach aktuellen Informationen zu ermöglichen, lieferte der Chatbot selbst drei Antworten.
Darin hieß es, die Entwicklung von Sprachmodellen habe viel Zeit in Anspruch genommen und sei ressourcenintensiv, die Verwendung von Echtzeitdaten könne zu Ungenauigkeiten führen und es gebe gewisse Datenschutz- und ethische Bedenken hinsichtlich des Zugriffs auf Echtzeitinformationen – insbesondere auf urheberrechtlich geschützte Inhalte ohne Erlaubnis. Die neuen Funktionalitäten von ChatGPT verdeutlichen perfekt das enorme Dilemma, mit dem der KI-Sektor konfrontiert ist. Um wirklich nützlich zu sein, müssen die Leitplanken gelöst oder zumindest gelockert werden – aber dadurch wird die Technologie potenziell gefährlicher und anfälliger für Missbrauch.
dp/pcl