微軟在醫療行業的 AI 驅動聊天機器人被發現存在漏洞,這使得威脅行為者能夠在目標 IT 基礎設施中橫向移動,甚至竊取敏感信息。
網絡安全研究公司 Tenable 發現了這些漏洞並向微軟報告,指出 Azure Health Bot Service 中的缺陷使得橫向移動成為可能,並因此能夠訪問敏感的病人數據。Azure AI Health Bot Service 是一項允許開發者建立和部署虛擬健康助手的工具,這些助手由人工智能 (AI) 驅動。這樣,醫療機構就能夠降低成本,提高效率,同時不影響合規性。
通常來說,數位助手通常處理大量敏感信息,因此安全性和數據完整性至關重要。Tenable 進行了對聊天機器人工作負載的分析,發現在一個名為「Data Connections」的功能中存在幾個問題,該功能設計用來從其他服務提取數據。研究人員指出,該工具並內置了防止未經授權訪問內部 API 的保障措施,但他們設法通過在重新配置數據連接的過程中向一個受控的外部主機發出重定向響應來繞過這些保障。
他們設置了一個主機,使其將請求以 301 重定向響應響應,目標指向 Azure 的元數據服務 (IMDS)。這讓他們獲得了一個有效的元數據響應,進而獲得了 management.azure.com 的訪問令牌。有了該令牌,他們能夠獲取所有授權的訂閱列表。
幾個月前,Tenable 將其發現報告給微軟,隨後所有地區都進行了修補。據報導,並沒有證據顯示該漏洞在現實中被利用。
研究人員指出:「所討論的漏洞涉及 AI 聊天機器人服務的基礎架構缺陷,而不是 AI 模型本身。」他們補充道,「這突顯了在這個 AI 驅動服務的新時代中,傳統網絡應用及雲安全機制持續重要性。」