“同事.skill”背后的法律与伦理思考

■ 熊志

版次:05  2026年04月14日

近日,一个名为“同事.skill”的项目走红网络。把同事“炼化”成赛博永生,成了科技圈的新噱头,随之而来的“导师.skill”“boss.skill”等变种,以及能模仿张雪峰语气推荐专业的“张雪峰.skill”,同样赚足了眼球。

所谓“XX.skill”,就是根据人物的语言风格、知识储备、行为模式等信息,利用AI技术,复制出一个高度相似的数字人。这波热潮背后,隐约浮现出一个“万物皆可蒸馏”的图景——任何人的言行、经验、性格,似乎都可以被“蒸馏”成一组数据,灌入模型,炼成永不掉线的“赛博员工”。

“同事.skill”的走红,让这种职场虚拟分身带来的“技术永生”充满科幻感与想象力,也不只是单纯的技术炫技。试想一下,如果用数字分身去替代真人高效执行某些任务,无疑会大大提升工作效率。那些重复性的沟通、标准化的答疑、会议纪要的撰写,都可以交给“赛博员工”来完成。

然而,美好的技术想象背后,隐藏着易被忽略的风险。

不妨先问一个简单的问题——如果有一天,你的同事,甚至你自己,在没有知情同意的前提下,被做成一个数字分身,你会作何感受?这当然不是杞人忧天。以“张雪峰.skill”为例,它的创建是否征得了其本人或家属同意?

退一步讲,哪怕只是基于网上公开信息和曾经的公开言论去打造数字分身,也涉嫌侵犯肖像权、人格权。如果将“张雪峰.skill”用于商业用途,风险进一步放大。如果数字分身出现“AI幻觉”,说了张雪峰从未说过的话,或者给出了不准确的建议,造成的误解和争议由谁负责?是开发者,还是被复制的原型?

这种“赛博员工”的泛滥,还带来了更深层的伦理困境。企业若能将员工的工作习惯、沟通内容、项目经验等信息变成数字分身,那么员工离职后,这些带着鲜明个人属性的数字“资产”归谁所有?企业是否还能继续“召唤”那个已离职的“赛博员工”去完成任务?

这显然突破了雇佣关系的合理边界。一旦隐私信息泄露,离职员工可能遭遇不正当竞争、信息骚扰等麻烦,个人权益受到严重侵害。

更值得警惕的是,如果不法分子利用类似技术创建数字分身,实施电信诈骗、传播虚假信息等违法犯罪活动,规制和管理的难度将呈指数级上升。一个“赛博员工”说了谎、犯了错,责任该由模型开发者、数据提供者,还是那个被模仿的真人承担?法律尚处于空白。

技术本身没有善恶之分,关键在于如何使用它。“同事.skill”的走红,体现了AI技术强大的创造力和模仿能力,让科幻电影中的数字人场景照进现实,也让数字分身与真人的界限越来越模糊。在技术狂飙的同时,我们更需要冷静思考,当“万物皆可蒸馏”成为现实,我们该如何守护人的独特性、尊严与自主权?

面对数字分身的热潮,我们不能盲目追捧,也不必过度恐慌,最重要的是厘清技术运用的边界。哪些数据可以用来训练数字分身?如何建立授权流程和知情同意机制?如何防止“赛博员工”反噬真实的劳动关系?这些问题,远比“能不能做”更值得追问。

确保技术不被滥用,既需要技术开发者和使用者坚守伦理底线,严格自律,也需要不断完善法律法规,填补监管空白,让AI技术在合法合规的轨道上运行。

毕竟,真正值得永生的,从来不是被“蒸馏”出的数据幻影,而是每一个人所独有的创造力与温度。