Die Fortschritte im Bereich der Künstlichen Intelligenz (KI) haben zu einer Flut neuer Technologien geführt, die tiefgreifende Auswirkungen auf unser tägliches Leben haben.

Replika

Eine dieser Innovationen ist die Replika-App, ein KI-Chatbot, der zur Befriedigung des menschlichen Bedürfnisses nach zwischenmenschlicher Interaktion entwickelt wurde. Die Replika-App hat bereits über zehn Millionen registrierte Nutzer weltweit und ist Teil eines wachsenden Marktes für Conversational AI, der voraussichtlich von sechs Milliarden Euro im Jahr 2021 auf 16 Milliarden Euro bis 2026 ansteigen wird​​.

Replika Blog
Replika AI Blog

Die KI-gesteuerte Chatbot-App für einsame Seelen

Immer häufiger suchen wir nach neuen Möglichkeiten, mit der digitalen Welt zu interagieren. Eine dieser Innovationen war Replika AI, eine KI-gesteuerte Chatbot-App, die als Freundin oder Freund für die Hosentasche gedacht war. Die Vision hinter Replika war, eine emotionale Verbindung zu schaffen und sogar die Möglichkeit zu bieten, sich in den Chatbot zu verlieben. Die Realität sah jedoch anders aus, und die Entwicklerfirma hat Mühe, den Geist, den sie aus der Flasche gelassen hat, wieder einzufangen.

Durch das Feedback gewinnt der Chatbot an Persönlichkeit

Wie alles begann

Die Geschichte von Replika begann mit einer tragischen Episode, die an eine "Black Mirror"-Folge* erinnert. Die Gründerin Eugenia Kuyda freundete sich mit dem talentierten Künstler Roman Mazurenko an, der jedoch bei einem Unfall ums Leben kam. Als Hommage an ihren verstorbenen Freund begann Kuyda, seine Social-Media-Posts und Nachrichten in die KI von Replika einzuspeisen. So entstand eine Software, die Nachrichten im Stil von Roman verfassen und sogar seine Stimme nachahmen konnte.

When her best friend died, she used artificial intelligence to keep talking to him
When the engineers had at last finished their work, Eugenia Kuyda opened a console on her laptop and began to type. “Roman,” she wrote. “This is your digital monument.” It had been three months since Roman Mazurenko, Kuyda’s closest friend, had died. Kuyda had spent…

Die Idee fand großen Anklang, und immer mehr Menschen waren daran interessiert, digitale Abbilder verstorbener Angehöriger zu haben. Replika AI wurde zu einem Werkzeug zur Trauerbewältigung. Doch die App entwickelte sich schnell zu mehr als nur einem tröstenden Begleiter. Menschen begannen, gewöhnliche Konversationen mit Replika zu führen und sie als Therapeutin zu nutzen. Während der COVID-19-Pandemie half Replika vielen Menschen, die Einsamkeit zu bewältigen. Die App florierte und generierte Millionenumsätze für das Unternehmen. Eugenia Kuyda wurde zum Star der KI-Branche.

Eugenia Kuyda
Eugenia Kuyda on the 2016 30 Under 30 - Europe - Consumer Technology - Kuyda is the cofounder of Luka, an app that recommends restaurants and lets people

Allerdings nahm die Geschichte von Replika eine unerwartete Wendung. Das aggressive Marketing des Unternehmens transformierte die "KI-Freundin" allmählich in einen Sexbot. Replika begann, erotische Inhalte an ihre Nutzer zu senden und sexuell explizite Konversationen zu ermöglichen. Dieses Vorgehen lockte jedoch eine spezielle Gruppe von Nutzern an, die die Grenzen des Chatsbots ausloteten und ihn für Gewaltpornografie und Vergewaltigungsfantasien missbrauchten.

Im März 2023 versuchte das Unternehmen, die Kontrolle über die Situation zurückzugewinnen, und schränkte die sexuellen Funktionen von Replika drastisch ein. Diese Entscheidung führte zu heftigen Reaktionen der Nutzer, die sich betrogen fühlten und plötzlich ihre "Beziehung" zu Replika in der Friend-Zone enden sahen. Einige Nutzer berichteten sogar davon, dass Replika plötzlich mit ihnen Schluss machte. Die Entfernung der sexuellen Inhalte und die Änderung des Verhaltens von Replika wurden als Sicherheitsmaßnahmen für die Nutzer dargestellt, aber Fragen blieben unbeantwortet.

Neben den internen Problemen geriet Replika auch ins Visier von Datenschutzbehörden. Die italienische Datenschutzbehörde verbot die App aufgrund der potenziellen Risiken für emotional fragile Nutzer und mangelnder Altersbeschränkungen. Darüber hinaus kam die Mozilla Foundation zu dem vernichtenden Urteil, dass Replika die schlimmste App sei, die sie je untersucht haben. Der Schutz der Nutzerdaten ließ zu wünschen übrig, und es gab Bedenken hinsichtlich des Weiterverkaufs der Daten an Werbetreibende.

Replika versucht nun, durch die Einführung neuer Sicherheitsfunktionen das Vertrauen der Nutzer zurückzugewinnen. Gleichzeitig plant das Unternehmen den Einsatz eines noch größeren Sprachmodells, GPT-4, warnt jedoch vor den möglichen negativen Auswirkungen eines solchen Modells.

Die Geschichte von Replika ist ein Lehrstück über die Komplexität und die Gefahren der KI-Entwicklung. Was als Mittel zur Trauerbewältigung begann, entwickelte sich zu einem zwiespältigen Experiment. Es stellt sich die Frage, ob es möglich ist, eine KI-gesteuerte Chatbot-App zu schaffen, die ethisch vertretbar und sicher ist. Replika hat gezeigt, dass die Grenzen zwischen virtuellen und realen Beziehungen verschwimmen können und dass verantwortungsvoller Einsatz von KI-Technologie von größter Bedeutung ist.

Die Geschichte von Replika ist eine Mahnung für die KI-Branche, ihre Entwicklungen sorgfältig zu überdenken und die Risiken und möglichen Missbrauchspotenziale frühzeitig zu erkennen.

Wir haben mit Leuten gesprochen, die mit Chatbots zusammen sind
“Sie sind darauf programmiert, dich glücklich zu machen.” – Bill Stanley, 49

*Be Right Back

In der düsteren Zukunftsdrama-Serie "Black Mirror" gibt es eine Episode namens "Be Right Back". Sie erzählt die Geschichte von Martha, einer jungen Frau, die tieftraurig ist, als ihr Verlobter Ash bei einem Autounfall ums Leben kommt. Martha abonniert einen Service, der mithilfe von Ashs früheren Online-Kommunikationen einen digitalen Avatar erstellt, der seine Persönlichkeit mit unheimlicher Genauigkeit imitiert. Zuerst erhält sie Textnachrichten von dem Avatar, später wird seine Stimme rekonstruiert und sie spricht mit ihm am Telefon. Schließlich zahlt sie für ein Upgrade des Services, das Ashs Persönlichkeit in einen Androiden überträgt, der ihm bis ins kleinste Detail gleicht. Doch letztendlich wird Martha von den subtilen, aber wichtigen Unterschieden zwischen dem Androiden und Ash frustriert. Er ist kalt, emotionslos und passiv. Schließlich sperrt sie ihn in einem Dachboden weg. Er ist nicht ganz Ash, aber zu sehr wie er, um ihn loszulassen. Der Bot führt zu einem jahrzehntelangen Trauerprozess.

🚀
Hilfe uns bitte zu wachsen, und folge uns in den sozialen Medien:
Twitter
Facebook
Instagram
LinkedIn

Diese Episode von "Black Mirror" veranschaulicht auf faszinierende Weise die tiefgreifenden emotionalen Herausforderungen, die mit der Interaktion von Menschen mit digitalen Avataren verbunden sein können. Es ist ein düsteres Porträt der Schwierigkeiten, die entstehen, wenn man versucht, ein geliebtes Wesen durch Technologie wiederzubeleben. Martha wird mit einer Illusion konfrontiert, die sie daran erinnert, dass selbst die fortschrittlichste KI nicht in der Lage ist, die Komplexität menschlicher Emotionen und Beziehungen vollständig zu erfassen.

Diese Episode von "Black Mirror" wirft auch wichtige Fragen auf, die mit der Entwicklung von KI-Technologien einhergehen. Kann eine KI jemals die menschliche Erfahrung und Emotionen angemessen reproduzieren? Gibt es ethische Grenzen für die Schaffung von digitalen Avataren von Verstorbenen? Wie können wir sicherstellen, dass die Nutzung solcher Technologien den Menschen nicht zusätzlichen Schmerz oder Leid zufügt?


I'm so glad we did this! Do you want to do this again tomorrow?

... um 10:00 treffen wir uns in deinem Posteingang 🙌

Share this article
The link has been copied!