人工智能的未來:互相監督,互相競爭
2023年7月10日
人工智能的發展速度超出了所有人的預期,甚至有專家開始呼籲暫停人工智能的發展,給人類一些時間來研究如何對其進行監管和應對。從某種意義上來說,當下的生成式人工智能可以被比作一種入侵物種,正在人類脆弱的網路系統中蔓延,如何對其進行監管成了一大難題。本文提出了一種全新的監管角度:讓人工智能互相監督,互相競爭,甚至互相告密。人類有一天可能會跟不上人工智能的步伐,但不同的人工智能之間總會是勢均力敵的。
人工智能領域的領軍人物,包括像 ChatGPT 這樣眾所周知的“生成式人工智能”的系統架構師,現在都公開表示,擔心自己創造的東西可能會帶來可怕的後果。許多人現在呼籲暫停人工智能的發展,讓國家和機構有時間研究控制系統。
為什麼會突然出現這種擔憂?在許多陳詞濫調的假設被推翻的同時,我們了解到所謂的圖靈測試是無關緊要的,它根本無法洞察大型生成式語言模型是否真的是有智慧的東西。
一些人仍然抱有希望,認為有機和控制論的結合將帶來里德·霍夫曼(Reid Hoffman)和馬克·安德烈森(Marc Andreesen)稱之為“增強智能”(amplification intelligence)的東西。否則,我們可能會與理查德·布勞提根(Richard Brautigan)的“仁愛機器”(machines of loving grace)幸運地產生協同效應。但擔憂者似乎很多,包括新成立的人工智能安全中心(Center for AI Safety)的許多精英創始人,他們對人工智能的行為感到擔憂,他們擔心 AI 不僅會變得令人不快,還將威脅人類的生存。
一些短期的補救措施,比如歐盟最近通過的公民保護條例,可能會有所幫助,或者至少能讓人安心。科技評論家尤瓦爾·諾亞·赫拉利(Yuval Noah Harari,《人類簡史》的作者)建議制定一項法律,規定任何由人工智能或其他人工智能完成的工作,都必須貼上相關的標籤。還有人建議對那些借助人工智能實施犯罪的人加重處罰,就像使用槍支一樣。當然,這些都只是暫時的權宜之計。
我們得清醒地認識到,這些“暫停”行為是否會減緩人工智能的進步。正如加州理工學院網路科學家亞瑟·阿布·穆斯塔法(Yaser Abu-Mostafa)所言:“如果你不開發這項技術,其他人也會開發。但好人會遵守規則,而壞人不會。”