法新社 4 日报导,如 ChatGPT 等「生成式人工智慧」(generative artificial intelligence,generative AI)正在蚕食传统网路搜寻流量,导致新闻网站访客流失并冲击广告收入,对已在为生存奋斗的产业而言是毁灭性的打击。
《波士顿环球媒体》(Boston Globe Media)研究发展副总裁卡洛利安(Matt Karolian)警告:「三四年内,世界各地出版商都将面临巨大挑战。没人能倖免即将来临的AI摘要风暴。」他说:「出版商需要建立庇护所,否则将面临彻底摧毁命运。」
虽然资料仍然有限,但「皮尤研究中心」(Pew Research Center)最近研究揭示,Google搜寻固定出现的AI生成摘要,会阻碍使用者点击来源文章。
有AI摘要时,使用者点击建议连结的频率仅传统搜寻一半。这对仰赖流量赚取广告收入和订阅转换的线上媒体而言,意味毁灭性的访客流失。东北大学(Northeastern University)教授维贝(John Wihbey)说,这些趋势「会加速,很快我们将拥有完全不同的网路生态」。
Google和Meta等科技巨头的主导地位,已大幅削减线上媒体广告收入,迫使出版商转向付费订阅。但维贝指出,订阅也依赖流量,单靠付费订阅并不足以支持大型媒体。
有限的救生索
卡洛利安表示,波士顿环球媒体集团已开始看到订阅者经ChatGPT注册,为集团与潜在读者提供新接触点。然而「与包括甚至小型搜寻引擎等其他平台相比,仍非常有限」。他补充,如Perplexity等其他AI驱动工具,产生的新订阅量甚至更少。
为了在无可避免的转变生存下来,媒体企业越来越常採用「生成引擎最佳化」(Generative Engine Optimization,GEO),是取代传统「搜寻引擎最佳化」(Search Engine Optimization,SEO)的技术。
这牵涉到为AI模型提供明确标示内容、好结构、易理解的文本,以及社群网站和Reddit等论坛有强大存在感。AI公司会爬取(crawl)这类网站。但最佳化新创公司OtterlyAI执行长裴汉姆(Thomas Peham)表示,根本问题仍在:「你是否该允许OpenAI爬虫你的网站和内容?」
受大型AI公司疯狂抓取数据影响,许多新闻出版商用阻挡AI爬虫存取自家内容反击。「新闻媒体同盟产业工会」(News / Media Alliance trade organization)负责人柯菲(Danielle Coffey)主张:「我们只需要确保使用内容的公司支付公平的市场价值。」
这方面已取得进展。《纽约时报》(New York Times)和亚马逊、Google和美联社(Associated Press)、Mistral和法新社(Agence France-Presse)等大型参与者已达成授权协议。
但问题仍未解决,多场大型法律战役仍在进行,最引人注目的就是《纽约时报》对上OpenAI和微软重磅诉讼。
放任爬虫
出版商面临两难:阻挡AI爬虫可保护内容,但也减少潜在新读者曝光度。裴汉姆观察,面临挑战,「媒体领导人越来越多选择重新开放存取权」。
然而,就算开放存取权限,也不能保证成功。OtterlyAI数据,媒体仅占ChatGPT引用量29%,落后企业网站36%。虽Google搜寻传统优先考虑认证为可靠的资讯来源,但「我们在ChatGPT没有看到这种状况」。
风险不只商业模式有。
路透新闻学研究所(Reuters Institute)《2025年数位新闻报告》(2025 Digital News Report),约15%的25岁以下用生成式AI读新闻。鉴于人们持续对AI资讯来源和可信度持怀疑态度,这趋势有使读者对资讯来源和可信度感到困惑的风险,就像以前的社群媒体。
卡洛利安表示:「总得有人报导新闻。如果没有原创新闻,所有AI平台就不会有内容可摘要。」或许正是考虑到这点,Google开始与新闻机构建立合作关係,支援生成式AI功能,暗示潜在发展方向。
维贝预测:「我认为平台最终会意识到,有多需要新闻媒体。」儘管这种认识能否尽快产生,以拯救苦苦挣扎的新闻编辑室,仍是悬而未决的疑问。
(本文由 中央广播电台 授权转载;首图来源:shutterstock)

微信扫一扫打赏
支付宝扫一扫打赏