機器之心報道
編輯:小舟、力元
當提供更多數據時,人們不會做出更好的決定,那麽為什麽假設 AI 會呢?隨著人工智能技術的興起,AI 中存在的問題也被逐步暴露出來。AI 做出的決策與人類最佳決策仍然存在差異,並且往往包含一些偏見。那麽問題出在哪裏呢?近日在一篇文章中,作者 Marianne Bellotti 闡明了相關原因,並提出了自己對 AI 設計原則的看法。我們來看一下文章的具體內容。
越來越多的數據
據專家指出,數據科學家花費大約 80%的時間來清洗數據,實作由人工智能驅動的集中式決策的關鍵是打破各項工作之間的壁壘,並為人工智能模型建立可互操作的流程。在目前的 AI 領域,即使花費大量的時間和經濟成本,也仍然無法實作像人類大腦一樣,更接近全域水平的態勢感知。隨著數據科學和人工智能的發展,構建 AI 模型所需的數據量也在增加。
自動駕駛公司投資上百億美元仍然沒有實作完全的自動駕駛,社交媒體公司投入數十億美元試圖利用 AI 清理不良資訊,卻仍然嚴重依賴人工清理平台。
AI 目前尚沒有做出最佳決策的能力。此外,人們在構建 AI 模型時並沒有完全消除人為偏見,而是試圖從越來越多的數據中構建「完美」的 AI 模型,但這些數據參差不齊。
決策與數據的相關性
當試圖找到一個難題的解決方案時,首先應該將事情分解開來:在做哪些假設?這些假設如何構建需要解決的問題?如果這些假設不同,會解決不同的問題嗎?想要解決的問題和方案結果有什麽關聯?對於 AI 來說,顯然將更好的決策作為結果是非常重要的。假設存取更多數據是決策者做出更好決策的關鍵,而更好的決策意味著更少的負面影響,那麽整體態勢感知也非常重要。
在現實生活中,決策者往往為了節約成本而進行最佳化決策。但決策畢竟是根據結果來判斷好壞的,在正確分析的基礎上還需要一點運氣。在結果出來之前,即使是在絕佳數據支持下最仔細、最徹底構建的策略也無法保證決策的絕對正確。
因此,做決策的過程不應該是對數據的客觀分析,而是利益相關者之間針對風險和優先級的容忍度做出的積極協商。數據沒有用於提供洞察力,而是用作了保護利益相關者免受影響的盾牌,完美的資訊往往是透過增加雜訊水平而降低了決策質素。
這似乎令人難以置信,完美的資訊不是應該自動改進決策過程嗎?實際上,更多的資訊可能會改變決策背後的組織策略。人工智能可以正確辨識內容,但基於該內容做出的決策會在很大程度上受到使用者和組織的規範及期望的影響。
改進團隊決策的最佳途徑不是獲取更多數據,而是改善利益相關者之間的溝通。但是人們真的需要花費數十億美元來清洗數據或增加數據量才能從人工智能中獲益嗎?
設計不佳的 AI 可能導致巨大的安全風險
當前,人們評價數據質素的方式具有誤導性。「幹凈(clean)」的數據似乎就是一種準確、無偏見、可復用的數據。但實際上,幹凈與準確不同,準確與可操作不同。數據存在這三個方面的問題就可能嚴重影響人工智能模型的效能,幹擾其結果的質素。數據中可能存在的問題有很多種,有些比較明顯,例如數據不正確、已損壞或數據格式不標準。有些問題則更加微妙,例如數據是在特定環境下獲取的,然後被不恰當地復用;對於模型來說數據處於錯誤的粒度級別;數據沒有標準化,導致相同的事實以不同的方式表示或描述。
使用單一資料來源解決上述任何一個問題都會非常困難,