“名人”来拜年?AI视频需鉴别
  • 来源:科普时报
  • 作者:陈杰
  • 2026-02-13 14:44

临近春节,各大社交平台上,明星、名人、历史人物拱手拜年的AI视频频繁出现。专家提醒,滥用AI生成名人拜年视频存在侵犯肖像权风险。

近年来,以Sora为代表的文生视频技术飞速发展,AI生成视频的画质、流畅度大幅提升,普通人越来越难用肉眼分辨真假。AI逼真的“深度伪造”技术,正在冲击“眼见为实”的传统认知。

那么,日常我们该如何鉴别视频是不是由AI生成的呢?

“只要掌握方法,其实完全能从视频的细节里找出破绽。”南京航空航天大学人工智能学院副教授李博涵建议,普通人鉴别AI视频,可从肉眼观察、逻辑核验、工具辅助三方面入手。

首先,肉眼抓细节是最直接有效的方法。

AI生成视频在精细部位漏洞百出。最常见的是手部失真,手指数量错乱、关节僵硬不自然。人物动作也很违和,走路像原地滑步,身体偶尔出现悬空、扭曲。

面部表情同样容易露馅。AI人物表情呆板单一,眨眼频率异常规律,甚至长时间不眨眼,说话时嘴型与声音明显对不上。

光影和背景更是“重灾区”。光源方向混乱矛盾,阴影生硬没有层次渐变;背景中的文字杂乱无意义,物体边缘模糊、扭曲、重影,这些都是典型的AI痕迹。

其次,逻辑核验能看穿更深层次的造假。

真实世界遵循物理规律,而AI往往难以完美复刻。视频中如果出现物体凭空出现、消失,液体流动违反惯性,重力效果异常,基本可以判定为AI合成。

面对热点事件、新闻资讯类视频,不要轻信单一来源。多平台、多信源交叉核实,查证发布账号、权威媒体报道,就能排除大部分虚假信息。

此外,工具辅助能进一步提高鉴别准确率。

如今,多款平台和软件已上线AI视频检测功能,上传视频即可查看AI合成概率与比例。

也可以使用逐帧分析工具,AI视频在帧与帧之间容易出现画面脱节,头发、衣物等细节运动不连贯,跳变、闪烁痕迹明显,一查便知。

“尽管AI技术迭代迅速,但现阶段仍无法完美复刻真实世界的物理规则与人的自然神态、细微动作。”李博涵提醒,春节期间,面对各类创意拜年视频要提高辨别意识,也不要擅自制作、使用他人肖像生成拜年内容,守住法律与安全底线。

编辑:吴桐
相关新闻

  • TEL:010-58884104
  • E-Mail:kepu@kepu.gov.cn
  • 如果您有任何意见或建议,请联系我们!