機器學習系統監測患者手術中的疼痛
在手術室中,接受局部麻醉且保持清醒的患者,往往難以清晰表達自身的疼痛程度。部分患者(例如嬰幼兒或癡呆癥患者)甚至完全無法傳遞這類感受。為了找到更優的患者疼痛監測方式,一支研究團隊開發出一種無創監測方法 —— 通過分析患者的心率數據與面部表情,綜合評估其疼痛程度。該研究方法的相關細節,發表在 11 月 14 日出版的《 IEEE Open Journal of Engineering in Medicine and Biology》中。
德國萊比錫應用信息學研究所研究員 Bianca Reichard 指出,基于攝像頭的疼痛監測技術,無需患者佩戴心電圖電極片、血壓袖帶等有線傳感器,從而避免了這類設備對醫療操作造成干擾。
為了實現這種無創監測,研究人員開發了一套機器學習算法,能夠分析攝像頭可捕捉到的各類疼痛相關特征。該算法首先會解析患者面部表情的細微變化,以此初步評估疼痛等級。
這套系統還會通過遠程光電容積脈搏波描記法(rPPG) 獲取心率數據。該技術的原理是向患者皮膚發射光線,通過分析反射光線的強度變化,檢測血管內的血容量波動情況。研究人員最初篩選了 15 項可通過 rPPG 測量的心率變異性參數納入模型考量范圍,最終選定了 7 項與疼痛預測統計相關性最強的參數,其中包括心率最大值、最小值以及心跳間隔等核心指標。
疼痛預測模型的訓練數據集
研究團隊采用了兩個不同的數據集,對疼痛預測模型進行訓練與測試。
第一個數據集是業內公認且被廣泛使用的疼痛研究數據庫 ——BioVid 熱痛數據庫。該數據庫由研究人員于 2013 年構建,其數據來源于一系列實驗:通過熱電極對受試者皮膚施加可量化的漸進式升溫刺激,同時記錄受試者對相應疼痛的生理反應。
第二個數據集則是研究團隊為本次研究專門構建的。29 名接受心臟導管介入手術的患者,每 5 分鐘就需要對自身疼痛程度進行一次評分,研究人員據此完成數據采集。
值得重點關注的是,絕大多數同類疼痛預測算法的訓練數據,都來源于時長極短的視頻片段;而 Reichard 及其團隊特意選用了時長 30 分鐘至 3 小時不等的長時程手術場景視頻,對模型進行訓練。這些訓練視頻中,會出現手術室光線條件不佳、患者面部被部分遮擋等各類實際干擾情況。Reichard 解釋道:“相較于實驗室環境下采集的數據集,這種訓練方式更貼近真實的臨床場景?!?/p>
模型測試結果
測試結果顯示,該模型的疼痛預測準確率約為 45%。Reichard 表示,考慮到原始視頻素材中存在大量干擾因素 —— 例如患者在手術臺上的體位變動、攝像頭拍攝角度的變化等,這個準確率已經超出預期。盡管此前許多同類疼痛預測模型能夠實現更高的準確率,但那些模型的訓練數據均來自 “理想化” 的無遮擋短視頻片段。而本研究團隊則刻意選用了條件受限但更具現實意義的視頻素材開展訓練。
此外,Reichard 還指出,本次研究采用的是架構相對簡單的統計機器學習模型。她表示:“如果采用更復雜的算法架構,例如基于神經網絡的模型,系統性能很可能會得到進一步提升?!?/p>
Reichard 認為,這類研究能夠同時為患者與醫護人員提供有力支持,具有重要的臨床價值。在未來的研究計劃中,她打算開發基于雷達技術的同類無創監測系統,用于在醫療場景中實時監測患者的生命體征。






評論