AI是如何统计“工作量”的

□ 科普时报记者 杨 雪

  • 来源:科普时报
  • 作者:
  • 2025-10-31 09:54

当你让人工智能帮你写诗、答数学题、生成图片时,它如何计算自己的“工作量”好向你收费呢?答案是一个叫Token(词元)的单位。

我们可以把Token想象成AI世界的“乐高积木”。其实AI根本“看不懂人话”,它会先把我们说的话拆成一个个基础单元——通常一个汉字就是一个Token,英文里常见单词多为一个Token,复杂单词可能拆成多个子词Token。这些Token会被转换成计算机能识别的数字,就像给每块积木标上编码,AI再按算法重新组合这些“编码积木”,最终输出我们要的结果。

按Token收费的逻辑也很简单,就像请人办事按工作量付费。当你问朋友“现在几点?”时,对方只需简单回应,而让他从《红楼梦》里整理所有笑话,因答案复杂,耗费的精力也会大得多。所以,用你们之间交流的字数来计算酬劳,显然会更合理。

自2024年起,人工智能市场开始涌现按照Tokens收费的商业模式,并大获成功。国际数据公司(IDC)也从这一年开始追踪大模型的Token调用量。

不久前IDC发布的报告显示,2025年上半年中国公有云上大模型调用量已达536.7万亿Tokens,这相当于每个中国人都交给大模型40万字的工作量。其中,火山引擎以49.2%的份额成为行业第一。

IDC这样的专业机构,是怎么算清这些“数字积木”总量的呢?他们会直接向大模型服务提供商核实Token处理量;也会采访企业客户的AI服务支出,再按市场定价反推Token使用量;还会关注各种公开新闻,综合以上所有数据来推测。

在最新报告中,IDC预测,中国生成式AI软件未来将持续高速增长,市场规模2028年将达到482.4亿元人民币,这相当于每个中国人为此付出34元钱。

这份报告还透露出AI行业的成长密码:当前高速增长主要因为厂商纷纷采用多模态大模型,大大提高了准确性、效率和用户体验。比如2025年火山引擎相继推出豆包大模型1.6、豆包·视频生成模型Seedance pro、豆包·实时语音模型、豆包·图像创作模型Seedream 4.0等,多项表现登顶国际权威评测,有效加速了AI应用落地。

IDC预计,中国大模型服务市场仍有百倍以上空间,用户群体正在从互联网相关企业转向传统企业。在消费电子、汽车、金融、教育等行业,大模型产品都在与企业紧密结合。

不过行业也面临挑战。有行业观察者认为,国产大模型现在面临的挑战,主要是对先进算力芯片的需求,以及在全球技术标准制定中争取更大话语权。未来,大家的竞争重点将从“拼参数”转向“拼生态、拼落地、拼性价比”。

相关新闻

  • TEL:010-58884104
  • E-Mail:kepu@kepu.gov.cn
  • 如果您有任何意见或建议,请联系我们!