6月9日-10日,AI內行頂級盛會“北京智源大會”在北京舉辦。智源大會是智源研究院主辦的年度國際性人工智能高端專業交流活動,業界學界共200余位人工智能頂尖專家到場。 ChatGPT讓公眾直觀領受到AI的力量,它展現出強大的翻譯、理解、推理能力,在多項考試中超過人類平均水平,在帶來AGI(通用人工智能,像人一樣思考、從事多種用途的人工智能)曙光的同時,也帶來大家對AI侵犯隱私、導致失業,甚至取代人類等問題的擔憂。
一、超級AI所帶來的近憂和遠慮
近憂1:侵犯個人隱私
目前來說,人工智能至少可通過三種方式侵犯隱私,即非法監控、非法侵入個人空間或住宅以及非法干擾個人行為。
1.非法監控
監控不僅包括對物理空間的監控,也包括對虛擬空間的監控。虛擬空間是指網絡空間,它獨立于物理空間而存在。盡管非法監控與非法侵入個人空間或住宅存在交叉,但不論是對物理空間還是對網絡空間的監控,非法監控所涉及的隱私領域主要是信息隱私,而非法侵入個人空間或住宅主要涉及空間隱私。在非法監控中,對物理空間或網絡空間的侵入只是手段,終極目的在于獲取未公開的個人信息。
2.非法侵入個人空間或住宅
這里所指的個人空間僅限于實體空間,并不包括網絡空間。傳統的侵入個人空間或住宅的方法比較有限,如監視、竊聽、刺探、秘密進入等,這些方法都需要人力來完成。然而,人工智能可以通過侵入住宅內的監控攝像頭、通訊網絡設備、智能家居系統等方式侵擾個人空間或住宅,且不留下任何外部物跡。
3. 非法干擾個人行為
眾所周知,互聯網上存在大量的實名或未實名的用戶數據,人工智能通過一定的技術手段對用戶數據進行收集與分析,可以準確分析出用戶的興趣愛好、行為蹤跡等信息,并進行信息推薦,而這些信息用戶并未主動提供,顯而易見,用戶是根本不愿意這些信息被其他主體知曉,這勢必侵犯個人隱私。
近憂2:造成失業與壟斷
從失業的角度來說,主要是因為超級人工智能的出現造成了勞動力的供大于求。人工智能的普及必然取代社會中原有的部分勞動力,且由于人工智能的低成本、高效率等突出特性,更易受到用人單位的青睞,造成以出賣勞動力為主的社會底層居民喪失勞動和就業機會,極大壓縮其生存的空間,使其成為社會中的不穩定因素,進而引發不同群體間的對立和沖突。從形成行業壟斷的角度來看,在市場中,資本與技術結合共謀實施行業壟斷是時常發生的情形,由于掌握先進技術,部分企業可以借此獲得壟斷或支配地位,肆意打壓中小企業或歧視性地對待合作商家而謀取巨額利益,進而嚴重破壞市場公平公正的競爭秩序。
遠慮:存在毀滅性風險
總部位于舊金山的人工智能安全非營利組織(CAIS),一直在為“如何降低人工智能(AI)的社會規模風險”而努力。5月30日,該機構發布了一份《AI風險聲明》,呼吁全世界應該像控制大流行病和核戰爭那樣,降低AI帶給人類滅頂之災的風險,并且把優先級調到最高。在ChatGPT走紅全球之后,75歲的辛頓從谷歌辭職,便拉響AI的警報,更自由地討論AI給人類帶來的風險。當時,他出席美國麻省理工大學(MIT)的一場論壇時表示:“如果AI模型比人類聰明得多,它將善于操縱人類,你都不會意識到發生了什么?!痹谧顗那闆r下,“人類只是智能進化的一個過場”,在生物智能進化出數字智能后,數字智能將吸收人類創造的一切,并開始直接接觸世界。當AI變得比人類更聰明時,就有可能會導致人類面臨生存威脅。
二、強化對超級人工智能監管的必要性分析
細化法律法規,監管技術齊驅
盡管新一代AI技術提出了諸多挑戰,具有較大的監管難度,但是我們卻不能聽之任之和置之不理。如果任由ChatGPT等新一代AI技術如脫韁的野馬一樣橫沖直撞,那么就可能出現難以挽回的損失甚至是災難性后果。只有未雨綢繆地對新一代AI技術的發展趨勢和應用前景進行研判和分析,提前做好監管準備,才能避免“兵來將擋水來土掩”式的被動響應。當我們建立和完善一攬子的新一代AI技術監管制度體系后,監管創新便能跟上技術進步的步伐,避免監管被技術甩在后面。否則,監管技術的落后將直接決定技術監管的失敗,也必然會導致新一代AI技術的失控和無序發展。
新一代AI技術具有很強的不確定性,使政府監管難以下手。首先,新一代AI技術的高度不確定性意味著一般的政府部門難以預判其風險,政府部門的監管往往是針對既有問題而展開的,而新興技術提出的監管挑戰則可能不在其監管框架之內。在這種監管機制存在局限的情況下,政府部門對新興技術的監管經常陷入被動響應的尷尬局面。其次,當新一代AI技術應用于各個領域時,它會成為新的操作系統、數字基礎設施或技術平臺,使其同相關業務難以切割。這使政府部門的監管不得不通盤考慮技術應用的廣泛性和深入性,而不能采取一技一策的方式進行監管。而在這種情況下,由專門部門去細化相關的責任顯得尤為必要。
加強國際合作,共度AI深秋
在全球化時代,由于人工智能技術呈現出跨國家、跨文化和跨領域特點,應對人工智能技術挑戰并非完全取決于個別的國家日,因此加強國際間的相互合作也就成為人工智能監管的必然趨勢。這種國際間的相互合作應該主要表現為兩方面:一方面是主權國家之間的相互協調,以美國為主的部分西方國家以所謂的“意識形態”“共同價值觀”為合作紐帶,以應對中國在人工智能領域不斷提升的影響,確保其在該領域的領導地位。如美國不僅計劃與歐盟在跨大西洋合作方面積極展開關于人工智能技術發展、規制的討論與合作,還在與韓國來往時多次強調希望促進韓美兩國在人工智能等新興技術方面的合作。另一方面是產業界、學術界等形成的行業宣言,如在首屆全球數字經濟大會人工智能產業治理論壇上發布的《人工智能產業擔當宣言》,便是企業與學術機構在共同商討下形成的倡議性文件。
三、加強國際合作具體規范設想
AGI擁有徹底改造文明的能力,因此,有意義的國際合作非常必要。作為地球上的一員,我們需要投資AGI安全、謹慎協調才能實現并享受這個未來。作為一項全球性的技術,輕率合作帶來的后果,將影響所有人。因此,在國際合作中,這三個關鍵領域最為重要。
建立國際規范,注重過程包容
我國應注重運用在人工智能相關領域的技術優勢,積極參與人工智能技術相關國際標準的制定工作,包括規范術語、技術框架、產品服務等,逐步實現我國在人工智能技術標準方面的國際化。同時,鑒于人工智能國際標準在國際上具有一定敏感性,在標準化立項和推進過程中要秉承積極協商、靈活應對、推進共識的工作策略,保障國際標準工作的順利推進。在推動共同國際規范和標準建立的過程中,應從相互依存、命運與共的“共同體”意識出發,同時注意各國之間的差異性,在制定規制的過程中,留下一定變通的空間。
加強人才互通,建立交流機制
千里之行,始于足下。我認為,最有建設性的第一步,是國際科學界、技術界展開合作。我們應該在AGI安全領域,推動建立增加透明度和知識共享的機制。發現緊急情況的研究人員應該為了共同的利益,共享新進展。另外,我們也應仔細考慮,如何在尊重和保護知識產權的同時鼓勵這種做法。更廣泛地說,我們應該推動、引導AI對齊和安全研究。
同時,我國應緊密跟蹤研究國內外人工智能安全標準化工作動態和發展趨勢,把握人工智能安全領域國際標準研究態勢和重點方向。建立人工智能重點難點標準合作交流機制,借鑒各國在國際標準組織中的工作經驗,參考形成我國人工智能安全國際標準化工作推進策略。充分吸收國外人工智能安全領域標準研究成果,借助國際力量豐富和推進我國人工智能安全標準制定,保持國家/行業標準與國際標準之間的協調一致,提高我國標準的先進性、規范性,確保人工智能安全標準能夠及時滿足人工智能安全保障和新興技術產業發展的需求。借助于雙邊或多邊的合作契機,邀請人工智能相關領域專家到我國開展交流研究,不斷向世界輸出人類命運共同體的合作理念和價值,搭建校企之間、科研院所之間等廣泛的交流合作機制,推動構建人工智能國際監管的合作框架,為人工智能監管貢獻中國方案,發出中國聲音。