
IT 之家 2 月 13 日音信,苹果机器学习连络团队于 2 月 7 日发布论文《画图计较机操作智能体用户体验想象空间》,聚焦揭示用户对 AI 智能体的实在生机及交互偏好。
连络东谈主员指出,尽管市集在放纵投资建立 AI 智能体,但对于界面格式及交互逻辑的探索仍显不及。为此,团队通过分析现存产物并开展实地用户测试,试图厘清这一新兴界限的想象模范。
在连络的第一阶段,IT 之家征引博文先容,团队深切明白了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在内的 9 款主流桌面及挪动端 AI 智能体。

连络通过参谋 8 位资深从业者,连络东谈主员构建了一套包含"用户教导"、"行径可证明性"、"用户甘休"及"心智模子"四大维度的分类体系。该体系涵盖了从用户如何下达高歌,到 AI 如何展示其操作盘算推算、报错及打法甘休权的全历程。
连络的第二阶段接管了经典的"绿野仙踪法"(Wizard of Oz)。团队招募了 20 名具有 AI 使用教会的用户,条件其通过聊天界面完成度假租出或在线购物任务。
{jz:field.toptypename/}
为了抹杀技艺故障热闹,准捕捉用户在靠近 AI 有策动时的实在情愫响应与行径模式,苹果接管真东谈主模拟 AI 操作(包括专门犯错或堕入死轮回)的程序,幸运飞艇app用户并不知谈屏幕背后的" AI "实则是近邻房间的连络员。

实际恶果标明,用户对"透明度"有着神秘的需求:他们但愿了解 AI 的动向,但远离微不雅惩处每一个程序,不然便失去了使用智能体的意旨。
这种需求随场景而变:在探索性或不熟识的任务中,用户渴慕看到更多中间程序与证明;而在高风险场景(如支付、修改账户信息)中,用户条件领有完满的证据权。
连络终末强调,信任是东谈主机交互的基石,但它极其脆弱。当 AI 智能体在碰到模糊选项时未作念磋商便私行作念主(静默假定),大约在未奉告的情况下偏离原定盘算推算,用户的信任感会赶快垮塌。
在 AI 碰到省略情情况后,用户并不但愿其为了追求"自动化"而立时遴荐,更倾向于 AI 暂停并寻求澄澈,尤其当这些遴荐可能导致买错商品等骨子亏空机。
IT 之家附上参考地址