編者按 算法是一項聯結大數據和規制決策的技術手段,其通過一套復雜算法模型來統計和分析海量的網絡數據,進而獲得算法控制者所希望得到的結果。實踐中,基于算法在社會應用過程中引發算法歧視、算法黑箱和個人權利受損等實踐難題,對算法應用的法律監管和規制非常必要。本期集萃摘編四位學者相關論述,以期為學界與實務界探討相關議題提供參考。
以共同善價值追求促進算法善治

中國政法大學法學院副教授?鄭玉雙
隨著算法研發的發展和成熟,生產、社會生活、商業經營和公共決策等領域越來越多地利用算法來實現特定目標;谒惴ǖ臋C器學習在社會應用過程中引發算法歧視、算法黑箱和個人權利受損等現實問題,使對算法應用的法律監管和規制變得必要。目前,學界大多基于回應型規制模式探討如何對算法應用進行規制,但對于算法與法律之間的規范關聯關注不多。然而,算法時代的首要命題是對算法與法律之間的關系進行界定,展現算法對法律價值世界的沖擊方式。即如何從正義原則來引導新興科技對社會和法律的重塑。理解算法和法律之關系的道德框架應當突出算法之技術和社會維度的共同善價值追求,并基于算法所產生的正義空間來提煉計算正義的基本內涵。計算正義的概念建構需要從兩個問題展開,一是從算法實踐中如何提煉出計算正義原則,二是法律如何基于計算正義原則應對算法產生的價值挑戰。在計算正義原則的引導下,采取算法與法律之關系的重構模式,能夠有效應對算法的價值危機和法律挑戰,破解算法的法律規制難題,在智能時代實現算法善治。
加強算法設計監管

遼寧師范大學法學院教授?王禎軍
提升社會穩定風險的識別、分析和預測能力是提高社會穩定風險評估效能的關鍵。算法的獨特功能既可以擴大對重大行政決策利益相關群體的信息收集,擴充風險識別范圍,提高風險分析的充分性和準確性,也可以為風險評估的人工“風險溝通”環節提供行動方案,在提升社會穩定風險評估的效能中發揮作用。將算法應用于社會穩定風險評估已經具備了數據基礎,在技術和目的上具有可行性。算法在社會穩定風險評估中的應用既需要界定好政府、評估機構與網絡平臺的法律關系,也要解決個人權利保護和公共利益維護問題。為此,應合理構建政府、網絡平臺企業、評估機構的法律關系,加強算法設計的監管,建立算法評估機制,確保算法應用與人工“風險溝通”相結合。
運用算法修正合同治理底層邏輯

中山大學法學院教授?楊彪
確保當事人自由選擇的有效性是改善合同治理效率的關鍵。進入數字社會后,復雜的決策環境和高昂的認知成本使人們的合同行為模式發生了巨大的變化,合同自由被嚴重侵蝕。隱藏在虛假自由背后的認知控制,是探討合同自由問題的一個重要維度。傳統合同法在應對當事人協商不足、放棄選擇問題上采取形式主義的解釋路徑,依靠不精確的缺省規則來探尋合同真意,已被證明無法應對數字技術的沖擊。以行為大數據與智能算法為核心,將數據驅動與規則驅動兩條技術路線有機結合,修正合同治理的底層邏輯,從締約助推、算法解釋、缺省規則三個方面進行個性化改造,使治理的重心從模糊的整體轉向精確的個體,能夠顯著提升合同治理效率,更好地實現交易公平。
構建算法輔助決策責任劃分機制

上海師范大學哲學與法政學院副教授?于霄
數字社會已經成為觸手可及的現實,算法輔助決策的安全性、公正性問題亟待解決。算法輔助決策較人類決策具有特殊的技術優勢,所以得到很多人的自主、自愿選擇。然而,算法參與人類意思的程度并非一致,可以由低到高區分為檢索過濾算法、排序精選算法、偏好模擬算法和家長式算法。算法輔助決策亦存在風險,算法的復雜性使對其解釋與認知越來越難,算法的設計者、運營者具有獨立的利益需求,其會偏離人的偏好,人的決策能力會受到算法輔助的影響。但是,總體上,算法輔助決策是具有更高效率的,更有助于增強人的幸福感,雖然在某些方面存在可能有損人的尊嚴的隱患。因為算法的復雜性,人越來越多地放棄了意思參與。因此,應當承認算法能夠超越人的意思能力。在此基礎上,要根據社會和技術發展的情況,描繪評價算法意思參與的“智能性”光譜,以便衡量算法的實質意思參與以及所引發的責任。同時,算法比人具有更有效地分析信息的能力,其本身就是監管的最好工具,要構建“算法規制算法”的治理與保護路徑。另外,要劃分算法輔助決策的責任機制,如果意思是由人與算法共同作出,那么責任也應當由兩者承擔。
(以上依據《政治與法律》《法治研究》《中外法學》《東方法學》,王淵、張寧選輯)