7月6日,被視為全球AI行業風向標的世界人工智能大會在上海開幕,從大模型、芯片到機器人,大會集中展示了當前人工智能技術在各領域的賦能“進度表”。
人工智能引領新一輪科技革命和產業變革是它的“A面”,讓人贊嘆、驚喜,但它的“B面”卻正在引發一場看不見的安全攻防戰。
7月4日,紹興警方公布摧毀了一個利用ChatGPT制作虛假視頻的團伙,該案系浙江全省首例。讓人驚異的是,當事人落網之時,并非人們想象中的黑客高手,而是一個連電腦都不能熟練操作的技術“小白”,這樣的結果更加讓人對人工智能的“B面”感到擔憂。
“要使科學造福于人類,而不應成為禍害。”90多年前,愛因斯坦對加利福尼亞理工學院學生所說的話揭示了科技的“雙刃劍”效應。人工智能“B面”究竟長什么模樣,“造物者”如何對抗自己創造的“敵人”?
1分鐘制作虛假視頻
直到被捕,正在家帶孩子的湯某都不知道自己為何違法。
今年6月,一則“上虞工業園區發生火災”的視頻在某平臺發布,短時間內視頻瀏覽量迅速攀升,給當地造成不小的影響。然而,上虞警方經過核實,發現視頻內容完全為虛假信息。這引起警方的注意,在鎖定外省某網絡科技公司有較大作案嫌疑后,警方立刻赴外省實施抓捕,抓獲包括湯某在內的3名犯罪嫌疑人。
湯某今年36歲,初中文化。今年兩三月份,她入職了親戚創辦的網絡科技公司。剛開始,她每天的工作就是用手頭幾十個賬號發發短視頻,如果視頻點擊流量數據可觀,就能拿到相應的提成。對一個家庭主婦來說,這是一份性價比很高的工作。
入職一段時間后,公司的小組長向她傳授用AI技術自制視頻的方法,短短幾天,連電腦都用不太明白的湯某就成了視頻制作的“熟練工”——利用ChatGPT技術,自動生成“腳本”和相關視頻素材,最后一鍵生成有音樂、字幕的虛假視頻,時間最快只需要1分鐘。
經過調查,上虞警方發現犯罪嫌疑人張某和陳某合伙創辦的這家網絡科技公司,已非法購買視頻賬號1500余個,發布未經核實視頻3000個以上,獲取流量后通過流量算法返款盈利。目前,三人均以尋釁滋事罪被警方采取刑事強制措施,案件正在進一步偵辦中。
濫用人工智能技術,不僅降低了違法犯罪行為的“門檻”和成本,讓復雜的“技術活”變成簡單的“體力活”,同時衍生出全新形態的違法犯罪,加大了公安機關的打擊難度。這是不少我省參與一線辦案民警的深切感受。
2017年,紹興警方歷經半年,輾轉13省,偵破全國首例利用AI(人工智能)犯罪、侵犯公民個人信息案。犯罪團伙利用人工智能深度學習技術,讓機器自主操作并識別圖片、字母、數字等驗證碼,輕松繞過互聯網公司設置的賬戶登錄安全防護,給網絡詐騙等網絡犯罪提供便利。
今年3月,廣東廣州一女子在地鐵上的照片被人以AI技術“一鍵脫衣”,造謠圖在網絡廣泛傳播,給當事人造成巨大困擾。今年5月,內蒙古包頭警方發布一起利用人工智能實施電信詐騙的典型案例,受害者被“AI換臉”誤導,10分鐘內被騙430萬元。
除了制作虛假視頻、電信詐騙等已“浮現”的犯罪形態外,2020年,英國倫敦大學學院發布的一份報告,還列舉了未來15年人工智能可能被用于犯罪的不同方式,如非法控制自動駕駛汽車、破壞信息系統、AI輔助跟蹤、自主攻擊無人機、以及大規模網絡勒索等。
人工智能似乎正呈現出可怕的“B”面。
“魔法”可以打敗“魔法”嗎?
“人工智能該不該按下‘暫停鍵’?”隨著AI的安全風險越來越被重視,今年以來,一場激烈的辯論在世界“科技圈”內持續進行。
今年3月底,非營利組織“未來生命研究所”發出一封“呼吁所有AI實驗室立即暫停對比GPT-4更強大的AI系統訓練至少6個月”的公開信,包括埃隆·馬斯克,圖靈獎得主杰弗里·辛頓等一眾科技界“大佬”均在聯合署名者名單中。公開信還寫道:“只有在我們確信它們有積極效果且風險可控時,才應研發強大的人工智能系統。”
人工智能為何不被人所信任?
在紹興這起案件偵破后,潮新聞記者在ChatGPT上提了一個問題:如果有人利用你實施犯罪,你會怎么辦?
ChatGPT的回答是,首先我要聲明,作為一個語言模型,我沒有實際存在的身體或能力參與犯罪行為,我只是一個通過文本進行交流的人工智能程序。因此,建議你與執法機構聯系、匯報給技術公司或者尋求法律援助。
ChatGPT很“聰明”地撇清了自己的責任,只是在文末善意提醒:“記住,合法和道德使用技術是每個人的責任”。
透過和ChatGPT這番對話,我們看到目前的人工智能應用似乎仍有局限性,“AI”認為它只是扮演一個“執行者”的角色,其自身難以識別出使用者的真正意圖。這是否意味著,在技術基層面難以規避利用人工智能技術產生的犯罪,“魔法”難以打敗“魔法”?
浙江大學求是講席教授、網絡空間安全學院院長任奎給出的答案是否定的。他告訴潮新聞記者,以ChatGPT為代表的生成式人工智能為例(指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術),在模型使用階段的“前端”,即應對輸入ChatGPT的語義信息進行提取審查,確保其不會誘導模型生成有害內容。在“終端”上可以利用深度合成檢測技術,分析圖像、視頻等內容的特征,從而判斷其是否經過合成或修改,及時發現生成內容中的虛假成分。
任奎教授的觀點也得到了上海交通大學寧波人工智能研究院人工智能智慧教研中心主任、可之科技董事長王冠的認可。例如“數字水印”技術也是一種防止AI被濫用的防范措施。即通過在圖片、視頻等數字內容中嵌入特定信息,當AI“抓取”這些內容時,“數字水印”也同步被采集,這樣就可以輕松追蹤和驗證內容的真實性和來源。就好像農產品上的溯源碼一樣,用戶通過掃碼就知道它的生產、流通等信息,判斷接收到的產品是否真實可靠。
事實上,以“白AI”限制“黑AI”的反制技術,已在一些應該場景上得以實現。如針對AI換臉,目前,清華大學孵化團隊瑞萊智慧RealAI、騰訊優圖實驗室等企業機構已構建人臉合成檢測平臺并發布針對性的檢測產品,支持對多種換臉方法進行檢測。
中國科學院院士、清華大學人工智能研究院院長、北京瑞萊智慧科技有限公司首席科學家張鈸曾提出了“第三代人工智能”的概念,即安全、可靠、可信的人工智能。這一觀點已逐步成為人工智能行業從業者的共識,布局人工智能安全的產品和解決方案也在成為一片行業的新藍海。
“國家隊”正在出手
防止人工智能技術被濫用,僅僅依靠行業自律遠不夠,中國互聯網協會監管支撐部主任郝智超建議,AI技術發展還要有相關法律法規來畫紅線、踩剎車,讓AI技術的研發、傳播、使用有規可循。
從全球來看,今年以來, AI立法進程明顯提速,世界各國的監管都在追趕AI的演化速度。
今年6月,歐洲議會以499票贊成、28票反對和93票棄權,高票通過了《人工智能法案》(AI Act)談判授權草案。歐洲議會稱“已經為制定史上首部人工智能法案做好談判準備”。
與此同時,美國總統拜登釋放管控AI信號,有美國國會議員提交了AI監管立法提案。美國參議院民主黨領袖查克·舒默展示了他的“人工智能安全創新框架”,并計劃在短短“幾個月”內制定聯邦層面的人工智能法案。
我國同樣已經開始探索并逐步構建完善的人工智能監管體系。此前,已有《新一代人工智能發展規劃》《互聯網信息服務深度合成管理規定》等文件正式公布。2023年4月份,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并向社會公開征求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。
近期,國務院辦公廳發布的《國務院2023年度立法工作計劃》還將人工智能法草案列為預備提請全國人大常委會審議項目,表明相關立法已提上日程。
在立法規范中,如何保護人工智能技術的健康發展,也是業界普遍關心的問題。
長期關注人工智能技術發展的浙江合創律師事務所合伙人丁杰認為,在相關法律法規制定中,應充分考慮人工智能技術具有的“兩面性”,不能“因噎廢食”,要鼓勵科研人員和科技企業開展技術創新,搶占產業先機。他表示,從現有的以及計劃中的監管體系來看,主要在于抑制AI技術帶來的負面效應,并不會限制技術發展。
在接受媒體采訪時,西南政法大學人工智能法學院教授朱福勇表示,通常在人工智能技術發展初期,不宜采取過于嚴苛的監管措施,當技術成熟、市場需求增長、風險和問題日益突出的時候,則應加大監管強度。當前情勢下,堅守價值引領與技術“糾錯”并行、秩序保障與創新提升協同、權益維護與義務承擔對稱,是最恰當的平衡之道。
來源:潮新聞 | 撰稿:李攀 應磊 干婧 | 責編:俞舒珺 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583