Wie Marketing Fachleute daran arbeiten, KI-Probleme zu entschärfen
- 3 min read

Wie Marketing Fachleute daran arbeiten, KI-Probleme zu entschärfen

Mit der zunehmenden Verbreitung von generativer KI im Marketing und in den Medien wachsen auch die Bedenken über ihr Potenzial für Missbrauch und Fehlinformationen.

On this page
Introduction

KI in Marketing und Medien: Eine doppelte Schneide

Technologie, insbesondere Künstliche Intelligenz (KI), hat das Potenzial, die Marketing- und Medienbranche grundlegend zu verändern. Es wird erwartet, dass KI von der Suche und Inhaltserstellung bis hin zur Werbung erhebliche Fortschritte machen wird. Aber wie bei jeder mächtigen Technologie gibt es auch hier eine dunkle Seite. Fehlinformationen und Deepfakes haben sich als ernsthafte Probleme erwiesen.

John Montgomery, ein Experte für Datenschutz und Betrugsprävention, argumentiert, dass Unternehmen in der Lage sein sollten, diese Probleme mit der gleichen Technologie zu bekämpfen, die sie verursacht hat.

Gemeinschaftliche Bemühungen zur Entschärfung von KI-Erzeugten Fehlinformationen

Es gibt mehrere laufende Bemühungen, KI-generierte Fehlinformationen zu bekämpfen. Unternehmen haben sich zu Organisationen wie der Coalition for Content Provenance and Authenticity (C2PA) zusammengeschlossen, um technische Standards für verschiedene Arten von Inhalten zu entwickeln.

Ein Unternehmen namens TruePic, ein Mitglied der C2PA, hat ein mobiles Software Development Kit (SDK) entwickelt, das die Echtheit von Fotos durch eine "digitale Signatur" überprüfen kann. TruePic hat auch mit der KI-Inhaltsplattform Revel.AI zusammengearbeitet, um Deepfakes und andere Videos als computergeneriert zu kennzeichnen.

Jeffrey McGregor, CEO von TruePic, ist der Meinung, dass die Verbesserung der digitalen Kompetenz der Verbraucher und der Gesellschaft dazu beitragen wird, KI-generierte Inhalte zu erkennen.

Digitale Kompetenzen sind 2023 wichtig!

Abonniere unseren Newsletter und das Wissen landet jeden Tag um 10:00 in deinem Postfach

Melde dich jetzt an!

Neue Technologien zur Bekämpfung von Deepfakes und KI-Generierten Inhalten

Es gibt eine Reihe von Start-ups, die neue Technologien zur Erkennung von Deepfakes und KI-generierten oder bearbeiteten Inhalten entwickelt haben. Zum Beispiel hat RKVST ein Tool namens Instaproof und PicoNext hat ein Tool zur Authentifizierung von Markeninhalten auf Blockchains entwickelt.

Zefr, ein weiteres Unternehmen in diesem Raum, nutzt eine Kombination aus maschinellem Lernen und menschlichen Faktenprüfern von Adverif.ai, um Fehlinformationen auf sozialen Medienplattformen zu erkennen.

Staatliche Regulierung als Lösung?

Trotz dieser Fortschritte glauben einige, dass böse Akteure weiterhin KI-generierten Betrug nutzen werden. Ein Experte für Markensicherheit argumentiert, dass staatliche Regulierung der beste Weg ist, um die Grenzen dessen, was akzeptabel ist und was nicht, festzulegen.

Christina Montgomery, Chief Privacy and Trust Officer bei IBM, glaubt, dass die Regeln für KI je nach Risiko unterschiedlich sein sollten. Unternehmen sollten verpflichtet werden, Folgenabschätzungen durchzuführen, um zu zeigen, wie ihre Systeme in Tests auf Voreingenommenheit abschneiden.

Abschließend, während KI ein mächtiges Werkzeug ist, das sowohl das Marketing als auch die Medienbranche revolutionieren kann, müssen wir wachsam sein, um sicherzustellen, dass wir die Kontrolle über diese Technologie behalten und sie verantwortungsbewusst nutzen.

Plattformen und Organisationen im Kampf gegen böse Akteure


Die Coalition for Content Provenance and Authenticity (C2PA) arbeitet an technischen Standards zur Zertifizierung der Herkunft und Geschichte von Medieninhalten, um irreführende Informationen online zu bekämpfen. Es ist ein gemeinsames Projekt, das durch eine Allianz zwischen Adobe, Arm, Intel, Microsoft und Truepic entstanden ist​1​.

Truepic und Microsoft haben "Project Providence" ins Leben gerufen, das erste interoperable System, das Truepics Authentifizierungs-Kamera-SDK und die Microsoft Azure-Cloud-Plattform verwendet, um die Herkunft oder den Ursprung von aufgenommenen Bildern von der Speicherung bis zur Anzeige aufrechtzuerhalten. Dies ermöglicht es Benutzern, Bilder als authentisch zu verifizieren und ihre Zeit, Datum, Ort und Quelle transparent für Betrachter anzuzeigen. Außerdem kann diese Technologie Änderungen an den Bildern erkennen und die authentische Quelle der Bilder beweisen​2​.

Truepic und Revel.ai haben zusammen das weltweit erste "transparente" Deepfake-Video erstellt. Die Erstellung des Videos wurde mit einem manipulationssicheren Siegel markiert, das Truepics Transparenz-Tools verwendet. Diese Tools sind mit dem offenen Inhaltsprovenienz-Standard der C2PA kompatibel, was eine transparente Anzeige der Herkunft und Bearbeitungen von Medien über alle kompatiblen Bearbeitungsdienste, Plattformen, Websites oder Browser ermöglicht​3​.

RKVST's Instaproof ist ein Werkzeug, das es jedem ermöglicht, die Herkunft jeder Datei einfach zu überprüfen, indem diese auf Instaproof gezogen wird. Wenn die Datei bei RKVST registriert wurde, kann die angezeigte Herkunftsinformation dazu verwendet werden, zu entscheiden, welchen Dateien vertraut werden soll. Es bietet eine einfache, benutzerfreundliche Drag-and-Drop-Prozedur zur sofortigen Überprüfung der Authentizität jeder Datei​4​.

PicoNext ist eine End-to-End-Plattform für Erlebnismarken, um ihre Kunden mit Web3 zu binden. Es bietet integrierte Web3-Erlebnisloyalität, Community und Marktplatzfähigkeiten und ermöglicht es Unternehmen, Web3 zu nutzen, um Generation Z und Millennial-Kunden anzuziehen und zu halten. Es wurde 2018 gegründet und hat seinen Hauptsitz in Salt Lake City, Utah, USA.