近年來,伴隨深度學習、大模型等人工智能技術日益成熟,算法和海量數據、云計算、傳感器網絡關聯在一起,成為社會的“數字底座”。

從應用廣度與深度來看,算法已實現從簡單的邏輯運算向深度學習、生成式人工智能的跨越。在社會生產領域,算法廣泛應用于自動駕駛仿真測試、工業互聯網優化等環節;在數字文化領域,基于用戶畫像的“算法分發”成為主流,生成式人工智能重塑內容生產模式,實現從輔助創作到自主生成的轉變;在公共治理領域,算法嵌入行政決策與資源分配,如智慧城市的交通調度、公共服務的精準匹配,極大提升了治理效能。同時,算法技術也表現出顯著的“權力化”與“黑箱化”特征,演變為一種新型權力。它通過代碼設定標準、分配資源、評價個體,具有了事實上的規制力。隨著深度學習技術的進步,算法的決策邏輯日益復雜,呈現出“不可解釋性”和“不可預見性”,即便是開發者也難以完全洞悉神經網絡內部的決策路徑。這種技術上的“黑箱”導致監管的穿透難度加大。此外,算法還具有動態演化性,其在投入使用后仍會通過與用戶數據的交互不斷自我迭代,打破了傳統技術靜態驗收即合規的監管邏輯,使其行為后果具有高度的不確定性。
算法在提升運行效率的同時,也暴露出算法歧視、“信息繭房”、誘導沉迷等現象,這些問題本質是算法技術對人的主體性與數字權利的深刻挑戰,是技術理性與人文價值沖突的集中爆發。
關于算法歧視,這并非簡單的代碼錯誤,而是歷史偏見與數據偏差的數字化投射。算法通過對歷史數據的學習,往往繼承甚至放大了既有的社會不公。例如,在信貸審批、招聘篩選等場景中,算法可能基于種族、性別等特征進行隱性打壓。更深層次的歧視體現為“機會剝奪”,即算法通過自動化決策將特定群體排除在優質服務或發展機會之外。這種歧視往往隱蔽于復雜的數學模型之下,受害者難以察覺,更難以舉證,導致有的實質上的社會不平等被技術外衣合法化。“信息繭房”與誘導沉迷,反映了算法不當應用對人類自主選擇能力的侵蝕。商業平臺為了吸引注意力,利用算法“輕推”甚至操縱用戶的認知與行為。通過高頻次的精準推送,算法構建了用戶的決策架構,利用人性的弱點如對即時滿足的渴望瓦解人的自律,讓用戶在不知不覺中喪失了信息選擇的主動權,被禁錮于同質化的信息回音室中。這不僅導致認知的狹隘化,還在更深層面上造成人的“客體化”——人不再是具有獨立思考能力的主體,而是變成各類互聯網平臺可預測、可操控的數據節點和流量資源。
因此,正確認識和解決這些問題,必須上升到數字正義與人本主義的高度。算法不應僅追求效率的最優化,必須通過倫理嵌入與法律規制,防止技術對人的異化。我們需要警惕算法權力對個人尊嚴、自主選擇權和平等權的系統性侵害。
來源:求是網
滇公網安備 53011102001222號 a>