4月4日发表在《科学》杂志上的研究提出,梦境中所经历的视觉体验与清醒时的视觉感知非常相似。利用机器学习模型与神经数据,日本科学家成功将梦境转换为视觉图像。
来自日本ATR神经信息研究所的团队设计了睡眠与清醒状态下的两组实验,共收集了3名日本男性被试的神经数据。睡眠实验在下午时间进行,被试在睡觉过程中同时接受核磁共振成像(fMRI)扫描和睡眠生理记录(包括脑电、眼动、肌电与心电图)。当脑电信号显示到达非快速眼动睡眠(non-rapid eye movement sleep,NREM)的第一阶段时(这一阶段睡眠者通常有丰富的视觉体验),他们会被叫醒,口头报告睡眠体验,包括是否做梦、梦境内容、主观时间感受等。报告完,被试可继续入睡。如此反复,最终每一个被试在持续大约一周的实验中至少重复200次做梦-唤醒的过程。而在清醒实验中,相同的被试观察一系列视觉图片并接受核磁共振扫描。研究者以此获得正常视知觉的脑成像数据。
在分析与建模阶段,研究者将视觉图片对应的脑成像数据作为模型的学习内容,通过机器学习的算法,使训练后的模型能在给定脑成像数据下准确地分类、探测与识别视觉内容。这一模型也就是本研究中的“解码器”了。最后当使用该模型“解码”被试梦中的脑反应时,解码所得的内容与被试对梦境的口头报告十分相似,这说明人在梦中“所见”与现实清醒时“所见”是类似的。
视频中是模型对一位被试某次实验醒来前40秒梦境内容的实时预测。左上图:平均后的预测图像。右图:解码后视觉概念所占权重的实时变化,红色表示口头报告中被提及,蓝色未被提及。左下图:右图变化的曲线图。
参与这项研究的教授神谷纪(Yuki Kamitani)说,这一发现的意义在于,它使人类能通过脑成像数据准确揭示梦的内容,为研究梦的功能和大脑自发的神经活动开辟了道路。
相关的果壳网小组
信息来源:EurekAlert!
原文地址:Neural Decoding of Visual Imagery During Sleep