Zwischen Kontrolle und Vertrauen: Was Nutzer von KI wirklich wollen.
Apple-Forscher haben in einer Studie untersucht, wie Menschen mit KI-Agenten interagieren möchten.
Zunächst analysierten sie neun bestehende Systeme wie Claude Computer Use und OpenAI Operator, um eine Taxonomie mit vier Hauptkategorien zu erstellen: Nutzereingabe, Erklärbarkeit der Aktionen, Nutzerkontrolle sowie mentale Modelle und Erwartungen.
Wizard-of-Oz: Der Mensch als KI
In Phase zwei testeten 20 erfahrene Nutzer einen vermeintlichen KI-Agenten. Tatsächlich saß aber ein Forscher im Nebenraum, der Aufgaben wie Urlaubsbuchungen ausführte.
Apple study looks into how people expect to interact with AI agentshttps://t.co/WKPafNmuc7
— All Apple, Always | News, Reviews, Guides (@iPhone_News) February 13, 2026
Bewusst eingebaute Fehler und Endlosschleifen offenbarten, wie Menschen auf Probleme reagieren.
Transparenz statt Mikromanagement
Die zentrale Erkenntnis: Nutzer wollen nachvollziehen, was Agenten tun, aber nicht jeden Schritt kontrollieren.
Bei unbekannten Oberflächen fordern sie mehr Erklärungen, bei riskanten Aktionen wie Käufen mehr Kontrolle.
Vertrauen bricht schnell
Besonders kritisch: Stillschweigende Annahmen oder undurchsichtige Entscheidungen zerstören das Vertrauen sofort.
Nutzer verlangen, dass Agenten bei Unklarheiten pausieren und nachfragen, statt eigenmächtig zu handeln. Die Studie ist hier zu finden.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? KI-Foto: iTopnews

