ISO/IEC 42001人工智能管理體系認證
管理和加強人工智能應用在產品/服務的信任
人工智能的透明度和可解釋性

近年來,基于人工智能的系統被廣泛應用于各種任務中。這些任務依賴于人工智能做出的決定,而這些決定往往具有高度敏感性,并可能對個人或社會群體的福祉構成潛在風險。這些任務包括批準貸款、管理招聘流程和做出與健康相關的決定。要在此類敏感情況和其他情況下適當使用人工智能,人工智能做出的決定必須對人類來說是可以理解和合理的。
透明度:揭開AI決策的神秘面紗

透明度可以被定義為一個特定人工智能系統的可理解性——我們知道哪部分的系統發生了什么。這可以是一個促進問責的機制。可解釋性是一個密切相關的概念,指的是以反向方式提供有關人工智能系統行動所依據的邏輯、流程、因素或推理的信息。可解釋的人工智能(XAI)可以通過各種方式實現,例如,通過調整現有的人工智能系統或開發設計可解釋的人工智能系統。通常,這些方法被稱為“XAI 方法”
Meske等人認為,人工智能的透明度和可解釋性與五個利益相關者群體有關:
1 人工智能監管機構,需要解釋以測試和認證系統;
2 人工智能管理人員,需要解釋以監督和控制算法及其使用,并確保算法的合規性;
3 人工智能開發人員,需要解釋來提高算法的性能,并進行調試和驗證。這使他們能夠采用基于原因分析的結構化工程方法,而不是反復試驗;
4 人工智能用戶,他們有興趣了解算法推理并將其與自己的思維方式進行比較,以評估算法的有效性和可靠性;
5 受人工智能決策影響的個人,他們對可解釋性感興趣,以評估特定人工智能決策的公平性。
由于人工智能系統的可解釋性對于許多敏感的現實任務非常重要。因此,大家可以持續關注。未來,我們也會出具一份詳細的報告,包括XAI方法的高層次概覽,深入剖析現有技術的優劣等內容。
關于SGS
SGS是國際公認的測試、檢驗和認證機構,SGS管理與保證事業群在信息與通訊技術(ICT)領域深耕多年,為諸多知名企業提供信息安全、隱私安全管理等技術支持,致力于為各行業機構提供全方位管理提升服務,為企業信創保駕護航,如:ISO/IEC 42001、ISO/IEC 27001、ISO/IEC 27701、ISO/IEC 20000、ISO/IEC 27017、ISO/IEC 27018、ISO 22301、CSA STAR、TISAX、ISO/SAE 21434、Europrivacy等產品培訓和認證服務。
官方公眾號
官方小程序