• 科学人
2126
需用时 04:15
2026年与黑帮合作,英国卫生部门最后的稻草

每年圣诞节,著名的《英国医学杂志》(British Medical Journal, BMJ)都会推出一期“圣诞特刊”,一反严肃医学期刊的常态,刊发一系列有点莫名其妙,却有着一本正经科学论文形式的文章。

论文能有多有趣?我们精选了今年特刊中的4篇文章,看完你就知道了。

与黑帮合作吧,加强物流、影响和降本增效

这篇文章来自伦敦的公共卫生教授马丁·麦基(Martin McKee),他提出了一个荒诞提议:2026年,让公共卫生界大胆一点,与犯罪集团合作吧!学习黑帮超强的物流、影响力和降本增效能力。

作者提出,如果放下道德洁癖,客观审视有组织犯罪集团(如黑手党、毒贩),会发现他们拥有许多让英国政府卫生部门望尘莫及的优势。

犯罪集团的核心优势之一是物流和供应链管理能力。无论是跨境贩卖人口,还是把毒品运到目标地点,他们都能快速高效地完成任务。这对卫生部门迅速送达医疗物资、危机紧急救援有很多启示。

建立影响力,也是卫生部门要向犯罪集团学习的。黑帮擅长获取信任和利用恐惧,他们能够收到保护费,是因为人们真的相信自己可以得到保护,而且不交就会挨打。想想,如果一个黑帮头目建议你打流感疫苗,你会说不吗?另外,犯罪集团还能影响卫生部门难以触达的群体,比如吸毒、无家可归的人。

最后是降本增效,如果卫生部门与犯罪集团合作,将会比与合法公司签订协议更便宜,毕竟犯罪集团不缴税。黑帮解决争端、维持秩序和提供服务也非常高效。

当然,作者并非真的呼吁与黑帮结盟,而是借此讽刺英国公共卫生界对烟草、酒精等危害健康行业的妥协,以及工作低效成本高、影响力不足等。

图 |图虫创意

多久才算“最近”?37年也算

在学术论文里,你一定见过这样的句式:“最新研究表明”、“近期证据显示”。乍一看,你一定觉得论文作者引用了刚出炉的文献、热乎着的证据,但真相并非如此。

在这篇圣诞特刊的论文中,作者在PubMed(生物医学文献数据库)中进行了结构化搜索,筛选出了一千篇生物医学论文,然后把这些论文中“recent(最近)”后面的参考文献找出来,计算了时间差。

结果显示,被标为“近期”的研究,引用时距离其发表,时间跨度在0~37年之间,平均5.53年,中位数4年。其中有177篇(17.7%)文献在被引用时已发表超过10年,26篇(2.6%)被称为“近期”的研究发布时间在20年以上,而那篇跨度37年的文献发布于1988年,2025年被引用时仍被描述为“最近”。

另外,这种现象还存在一定的学科差异。其中,重症、感染、遗传、免疫和影像领域,滞后中位数约2年;而肾内、兽医和口腔领域达到8.5~14年,表明这些领域对“最近”的理解更为广泛。

作者指出,“recent”在学术写作里不是时间的衡量标准,而更像是一种叙述手法。不过值得庆幸的是,在2020~2025年新发表的文章中,“recent”的滞后中位数已缩至2.5年,有提速态势。

作者也并不主张废除此类描述,而是呼吁论文作者们下笔前想想:是真的“最近”,还是只是“听起来最近”。读者与审稿人也要多长一个心眼,“recent”到底是什么时候,别让文字骗了。

图 | 豆包AI

医生和AI胡说八道,背后的原因竟然一样

在医院里,常能见到这样的场景:查房时,住院医师突然被主任提问,明明不会,却硬着头皮编了一套“自洽”的解释;又或者患者咨询时,医生在并不确定的情况下,仍会自信地给出回答或建议。以上这些情况被称为medical bullshit,指医疗领域中缺乏科学依据、误导性或欺诈性的说法、行为等。

与此同时,大语言模型(LLM)也会产出看似合理但事实错误的信息,比如把从没发生过的事情,用一本正经的口吻说出来,甚至有头有尾,有时间、地点、人物等。这便是所谓的AI幻觉(hallucinations)。

这篇文章的作者们指出,这两种“谎言”背后有共同的推手,或者说根源相同——医生和AI都面临着“必须给出答案”的结构性压力。

具体来说,在医学领域,医生沉默容易被视为“无能”;上级、患者也更喜欢自信满满、对答如流的医生;另外医生的职称晋升与论文数量挂钩,当论文研究结果是阴性时,可能不好发表,于是便可能出现美化数据的情况。

在AI领域,一切是相似的。大语言模型被设定为“有输入,就必须有输出”;用户也更喜欢回复迅速、完整,答案看起来专业度高的AI;同时日活量也和模型的融资、商业价值直接绑定。

研究作者指出,这两种谎言是危险的,甚至会互相喂料——比如有问题的论文成为AI的训练资料,AI再生成有幻觉的内容,新的医生引用,闭环达成,而最终受害的是患者甚至整个医疗体系。

要改变这种情况,作者认为要允许医生和AI“不知道”,比如临床考核可以把“承认不知道、不确定”作为加分项,当证据不足时,模型也可以明确回答“资料有限,无法推荐”。此外,公开训练语料、学术期刊能同等发表阴性结果,也有助于减少两类谎言。

图 |豆包AI

年轻人流行孤独病,AI聊天机器人是药是毒?

AI聊天机器人,正越来越多地被当作“知己”。人们获得情感支持更便捷了,但同时,它对孤独的影响也引发了担忧。

美国一项报告指出,孤独使过早死亡风险增加26%,对总体健康的影响相当于每天吸烟15支。在英国,近一半成年人经历过孤独,十人中就有一人经常感到孤独。BBC孤独实验发现,16~24岁、单身、健康状况差和缺乏归属感的人,孤独风险尤其高。不过,心理健康服务等待时间很长。

因此,许多人开始使用聊天机器人陪伴自己、提供情感支持。现在的聊天机器人经过深度学习与专门训练,可以做到对话与真人非常相似,并且容易使用、有耐心。

一项研究发现,三分之一青少年会用AI进行社交互动,十分之一认为AI对话比真人更让人满意。也有研究支持,经过与AI聊天机器人的对话,受试者的抑郁、焦虑、饮食障碍和痛苦症状有所减轻。

然而,视线转向长期实际使用时,研究者发现使用ChatGPT次数最多的人,孤独感最强、社交最少。虽然这不能说明聊天机器人有害,但人们逐渐意识到,使用它们对社会情感发展的长期影响还不明确,将聊天机器人视为朋友可能带来潜在的风险。

作者认为,未来我们需要更多研究去探索人类与AI聊天机器人对话的影响,利用研究结果识别经历孤独的人、每个人最适合的支持方式,并给予孤独者鼓励、指导和支持。

与任何新技术一样,也许AI帮助人们建立真实的人际关系,而不是取代,才是缓解孤独的理想方式。

图 |图虫创意

今年的圣诞特刊精选就到这里了,让我们期待明年的有趣文章吧。

参考文献

[1]Martin McKee. Working with organised crime to improve health: a modest proposal. BMJ 2025;391:r2469.

[2]Alejandro Díez-Vidal, Jose R Arribas. How recent is recent? Retrospective analysis of suspiciously timeless citations. BMJ 2025; 391

[3]Correa Soto RA, McCoy LG, Perdomo-Luna C, et al. Parallel pressures: the common roots of doctor bullshit and large language model hallucinations. BMJ. 2025 Dec 12;391:r2570.

[4]Susan C Shelmerdine, Matthew M Nour. AI chatbots and the loneliness crisis. BMJ. 2025;391:r2509.

作者:黎小球、代天医

编辑:odette

封面图来源:图虫创意

The End

发布于2025-12-23, 本文版权属于果壳网(guokr.com),禁止转载。如有需要,请联系果壳

举报这篇文章

果壳

果壳网官方帐号

pic