文章來源 / Akamai Official Blog
API數據收集是API安全的基礎。數據收集有兩個核心目的:API Discovery和API流量分析。
API Discovery對於任何有效的API安全計畫都至關重要,更重要的是需要持續進行API Discovery以找出惡意和殭屍API。
API流量分析對於漏洞和威脅也至關重要,正如OWASP十大API風險中所提到的。與任何網路資安一樣,資安產品需要查看正確的數據,以對其進行威脅分析。
進行有效API數據收集的四項建議:
針對如何進行有效的API數據收集,我們的四項建議包括:
從最廣泛的觀察視角開始。
增加主要API監控堆疊的深度。
清理您的API活動數據。
踏出更好的API Discovery和進階威脅偵測的第一步。
從最廣泛的觀察視角開始
在設計API安全策略時,可見性的廣度至關重要,如果您有普遍標準化的API部署和管理流程,您會根據該標準流程重點關注API資料收集,然而,偵測到例外情況可以說是API安全策略中更關鍵的要素。
畢竟,在您認可的流程之外,所實施的惡意API以及在遺留API堆疊上創建的被遺忘的影子API,可能比主要堆疊上的新API更具重大風險。請確保您的API數據收集機制能夠透過持續發現來找到您的API。
在這個領域,流量監控和日誌收集相對基於主機感測器更具有優勢。從網路中的關鍵點鏡像流量,並使用日誌(例如從API閘道)提供了廣泛的覆蓋範圍,更有可能捕獲到未經授權的API活動,只要您的API安全系統被設計用於發現它們。相較之下,大多數類型的基於主機的感應器,尤其是程式碼偵測,只會看到具有感測器的特定API主機的活動。
即使利用日誌和流量監控的廣泛可見性,找出並消除盲點仍然很重要。在混合雲和多雲環境中通常具有許多API 流量在不同位置流動著,每個位置都必須單獨存取。(在後續的文章中了解如何讓團隊確保詳細日誌中的敏感資料受到保護。)
增加主要API監控堆疊的深度
日誌和流量資料可以來自不同的程序,從覆蓋範圍的角度來看,從基礎設施來源收集這些數據很有幫助,例如封包中介(Packet brokers)、雲端平台、API閘道、容器(Container)和網狀(Mesh)編排工具、網路代理(Proxy)、內容交付網路(CDN)、Web應用程式防火牆(Web Application Firewalls)和集中式日誌記錄平台(Centralized Logging Platforms)。
這些平台提供的覆蓋範圍非常適合基礎API Discovery,但在設計API數據收集時,考慮數據的深度和保真度也很重要。
例如,假設您直接從 API 閘道收集活動數據,無法保證您的API閘道日誌包含足夠的細節,來執行最高級別的行為分析。例如,即使所有HTTP活動都出現在日誌中,請求和回應訊息頭詳細程度可能各不相同,有用的數據像是消息有效負載可能完全缺失,具體取決於供應商。
對於像 Akamai API Security 這樣能夠識別 API 活動中涉及的實體、整合商業背景並監控行為異常的平臺而言,通過 API 流量鏡像技術實現更高的數據保真度是非常有價值的。
清理您的API活動數據
到目前為止,我們所談論的大部分內容都集中在盡可能收集最廣泛和最深入的API活動數據。這樣做可以確保您的API Discovery和安全分析盡可能全面,並確保為搶先一步防範先進的 API 威脅所需的各類行為分析奠定必要的基礎。
因此,在允許資安供應商分析您的 API 活動之前,重要的是考驗他們以確認能夠在數據離開您的本地或虛擬私有雲端環境前對這些數據進行清理。
採用這種類型的雲端資安模型將使您有信心允許供應商感應器將高度細微的詳細資訊發送到雲端進行分析,同時保護您的敏感用戶數據和智慧財產權。
踏出更好地 API Discovery 和進階威脅偵測的第一步
為您的組織找到最佳的 API 數據收集技術,並確定如何更好地權衡這些技術的利弊,這可能看似艱深,但實則不然。
Akamai 團隊將引導您完成這趟旅程,並確保您的需求融入最新的實踐方案。了解我們如何協助 Akamai 客戶的歷程。
Commentaires