【INDEX News 黃振綱】美國紐約州議會兩院於近日投票通過了《RAISE 法案》,這項開創性的立法旨在對有能力開發最強大人工智慧(AI)模型的公司進行監管,以防止其技術可能帶來的災難性風險。
《RAISE 法案》核心內容與監管對象
《RAISE 法案》的核心目標是為高階AI模型的開發和部署設立護欄。根據法案內容,開發特定規模和能力(通常被稱為「前沿模型」或「通用目的AI模型」)的AI公司,無論其總部位於何處,只要其模型在紐約州境內產生影響,都可能受到此法案的約束。這些公司將被要求對其AI系統進行嚴格的安全測試和風險評估,並向州政府相關部門報告其模型的潛在危險能力以及已採取或將要採取的安全措施。法案同時規定了未能遵守相關規定的處罰機制,顯示了立法者對確保 AI 安全的嚴肅態度。此舉措被視為對AI行業中如OpenAI、Google等巨頭以及其他擁有強大AI研發能力的實體進行規範的重要嘗試。

立法背景:應對AI潛在風險的迫切性
此次《RAISE 法案》的推出,正值全球對於AI技術快速發展及其潛在負面影響日益擔憂的時刻。從深度偽造技術的濫用,到AI系統可能存在的偏見,再到對未來更強大AI系統可能失控的恐懼,都凸顯了建立有效人工智慧監管框架的迫切性。法案的推動者,包括州參議員格納迪斯(Andrew Gounardes)和州眾議員博爾斯(Alex Bores),強調了立法的預防性質,旨在「主動保護紐約州民免受AI傷害」,而非等到災難發生後才採取行動。他們認為,隨著AI技術能力的指數級增長,若不加以適當引導和約束,其可能造成的社會、經濟甚至生存風險不容忽視。
各界反應與潛在影響
《RAISE 法案》的通過在紐約州乃至全美引發了廣泛關注。支持者認為,這項立法是負責任治理的體現,有助於在鼓勵創新的同時,確保AI技術的發展方向符合公眾利益和安全標準。他們期望此法案能為其他州乃至聯邦層面的AI立法提供範本。然而,也有來自科技行業的聲音表達了擔憂,認為過於嚴苛或定義模糊的監管措施可能會扼殺創新,增加中小型AI企業的合規成本,或導致AI研發力量向監管較為寬鬆的地區轉移。例如,軟體行業組織BSA就曾對法案的某些方面表達過關切,認為其對「大型前沿模型」的定義和要求可能需要更清晰的界定,以避免對行業發展造成不必要的阻礙。該法案的實施效果及其對大型AI模型開發格局的長遠影響,仍有待觀察。
AI監管的挑戰與方向
儘管《RAISE 法案》已在紐約州議會兩院獲得通過,但仍需州長簽署方能正式生效。此法案的進展標誌著政府層面對AI風險管控的積極姿態。未來,如何在保障AI 安全與鼓勵技術創新之間取得平衡,將持續成為各地政府和國際社會面臨的重大挑戰。紐約州的這一嘗試,無疑為全球範圍內的人工智慧監管實踐提供了重要的案例研究。預計未來會有更多地區跟進,探索適合自身情況的AI治理模式,以應對這項革命性技術帶來的機遇與挑戰。
目前,《RAISE 法案》在紐約州的立法程序已取得關鍵進展,正等待州長的最終批覆。此法案的推行不僅將對在紐約州運營或對該州產生影響的AI開發者帶來直接影響,也預示著全球範圍內對AI技術,特別是高風險AI系統的監管趨勢正在逐步形成和加強。