
虽然这些语音处理模型原本主要为语音识别设计,但苹果研究团队发现它们同样能够有效地处理心音图数据。心音图是一种记录心脏机械震动转化为电流信号的曲线图,对于心脏健康监测具有十分重要的作用。该研究测试了多个主流语音处理模型,包括Whisper、wav2vec2、wavLM等,并且与苹果自主研发的CLAP模型进行了对比实验。
研究团队使用了CirCor DigiScope Phonocardiogram数据集,该数据集包含大约20小时的心音录音。音频文件被分割成每秒移动一次的5秒片段,总共生成了23381个心音片段用于心率转换测量。实验结果显示,苹果的CLAP模型在各项数据分割中都取得了最低的平均绝对误差(MAE),表现出超越传统声学特征训练模型的性能。这一结果证明了CLAP模型由于训练数据涵盖了更多非语音内容,能够更好地捕捉心音相关特征,从而提高心率估算的准确性。
苹果研究团队表示,语音处理基础模型的适应能力令人印象深刻,它不仅可以有效应对听诊任务,还能在生命体征估算方面成为传统方法的强大替代方案。他们发现模型规模并非决定心率估算效果的关键因素,未来可能通过进一步微调来提高精度。若此技术能够成功实现商业化应用,那么未来的AirPods耳机将不仅仅是音频设备,更将转变为重要的健康监测工具。用户在佩戴耳机时,可以通过内置的麦克风和声学传感器实时监测心率,并将数据同步至苹果健康生态系统中。
这一功能在运动场景下尤其具有实用性。因为相比手腕设备,耳机佩戴方式更为稳定,能够提供更精准的心率数据,有效避免因手臂摆动而产生的误差。这项技术还有望应用于心肺声音的病理分析,帮助更准确地进行心律失常和杂音等异常情况的检测。
