Die Integration des Assistenten Meta AI in WhatsApp hat bei Tausenden von Nutzern weltweit Unzufriedenheit ausgelöst, darunter auch bei denen, die die Plattform für Arbeit, Studium oder vertrauliche Korrespondenz nutzen. Die neue Schaltfläche mit KI-Funktionen erschien in der Suchleiste oder im oberen Bereich der Anwendung, auch wenn der Nutzer sie nicht angefordert hatte.
Obwohl Meta auf seiner Website behauptet, dass diese Funktion „optional” ist, gibt es in Wirklichkeit keine eindeutige Schaltfläche, um sie vollständig zu deaktivieren.
Im April bestätigte dies die BBC: „Das Symbol kann nicht deaktiviert werden”, teilte Meta diesem Medienunternehmen mit, präzisierte jedoch, dass die Nutzer nicht verpflichtet sind, den Assistenten zu verwenden oder mit ihm zu interagieren.
Die Medienagentur AP News veröffentlichte einen Leitfaden mit dem Titel Möchten Sie Meta AI deaktivieren? Das ist nicht möglich, aber es gibt einige Alternativen, in dem das oben Gesagte bestätigt wird; allerdings wird darin hinzugefügt, dass es Maßnahmen gibt, mit denen man „seine Präsenz minimieren” kann, wie z. B. das Archivieren des Assistenten-Chats oder das Vermeiden jeglicher Interaktion, die ihn aktiviert.
Die Agentur Reuters schloss sich dieser Diskussion an und berichtete im Juli 2025, dass Meta wegen der Einführung von Meta AI in WhatsApp und der Unklarheit hinsichtlich seiner Deaktivierung von der italienischen Kartellbehörde untersucht wird.
Warum beunruhigt dies so viele Nutzer?

1. Datenschutz und Datennutzung
Laut einer Analyse der Website AtomicMail, die die Politik von Meta genau verfolgt, werden WhatsApp-Nachrichten weiterhin von Ende zu Ende verschlüsselt; jedoch genießen Interaktionen, die der Nutzer direkt mit Meta AI hat, nicht unbedingt denselben Schutz. Dies wirft die Frage auf, ob das, was ein Nutzer dem Assistenten schreibt, zum Trainieren von Modellen oder zum Erstellen von Verhaltensprofilen verwendet werden kann.
In Regionen wie Europa gibt es bereits Mechanismen, mit denen Meta daran gehindert werden kann, Daten zum Trainieren seiner KI zu verwenden, aber diese Optionen gelten eher für Facebook und Instagram als für WhatsApp.
2. Kontrolle über das Tool
Laut The Sun und anderen Technologie-Medien wird oft empfohlen, „das Öffnen des Assistenten-Chats zu vermeiden”, da jede Interaktion ihn noch stärker in der Benutzererfahrung verankern könnte.
Darüber hinaus kann die ständige Präsenz der Schaltfläche für Personen, die WhatsApp für berufliche Zwecke nutzen, wie Journalisten, Beamte, medizinisches Personal, Rechtsanwälte usw., zu „visuellem Rauschen” oder dem Gefühl führen, dass die KI in vertrauliche Gespräche eingreifen könnte, auch wenn sie dies nicht automatisch tut.
3. Unklare Zustimmung
Websites wie Wired haben darauf hingewiesen, dass die Schaltfläche hinzugefügt wurde, ohne dass der Nutzer die Möglichkeit hatte, sie zu akzeptieren oder abzulehnen. Die Medien fassten dies wie folgt zusammen: „Sie können Meta AI nicht aus dem Design von WhatsApp entfernen, selbst wenn Sie es nie verwenden wollen.”
Was kann der Nutzer tun?
Obwohl es nicht vollständig deaktiviert werden kann, können Sie die Präsenz des Assistenten verringern, indem Sie die folgenden Schritte ausführen, die aus Anleitungen von AP News und Fachmedien zusammengestellt wurden:
- Archivieren oder löschen Sie den Meta AI-Chat, damit er nicht in den Hauptkonversationen angezeigt wird.
- Vermeiden Sie es, Chats mit dem Assistenten zu starten oder auf das Symbol zu klicken, um zu verhindern, dass er häufiger angezeigt wird.
- Überprüfen Sie die Berechtigungen Ihres Telefons (Zugriff auf Kamera, Mikrofon, Standort), wodurch Meta AI nicht deaktiviert, aber der Zugriff auf Daten eingeschränkt wird.
- Verwenden Sie die in einigen Regionen verfügbaren „Erweiterten Datenschutzeinstellungen”, um die intelligenten Funktionen in bestimmten Chats einzuschränken.
Cybersicherheitsexperten empfehlen außerdem Personen, die mit vertraulichen Informationen arbeiten, wie z. B. Journalisten, die Möglichkeit zu prüfen, ihre beruflichen Gespräche von der Plattform zu trennen oder Alternativen zu evaluieren, die stärker auf Datenschutz ausgerichtet sind, wie z. B. Signal.








