打造“安全可信、可控易用”大模型 讓人工智能守住“技術向善”底線
◎本報記者 宋迎迎 王延斌 王曉夏
3秒鐘即可生成一段尼山圣境景區門票的直播帶貨視頻,5秒鐘就能產出一份景區招商方案及詳細流程……在6月26日召開的世界互聯網大會數字文明尼山對話主論壇上,360集團創始人周鴻祎展示了大模型賦能企業辦公的全新場景。他表示,大模型未來發展的主要場景在企業、行業、政府和城市,應通過打造“安全可信、可控易用”的專有大模型,助力產業從數字化到智能化的轉型升級。
當下,人工智能正在融入生產生活,賦能千行百業,但其在數據、技術、管理、道德等方面的風險也凸顯出來。“構建安全可信的人工智能”正引起越來越多的關注。在此議題下,來自360集團、百度、阿里巴巴及多家國際組織、信息通信技術領域的代表專家展開探討,給出建議。
安全負責任地駕馭AI,才會創造繁榮
“堅持技術發展和安全可控的雙輪驅動,才能夠行穩致遠。”百度創始人、董事長兼首席執行官李彥宏在發言時表示:“如果我們安全負責任地駕馭AI的發展之路,大模型就會重塑數字世界,人工智能就可為中國經濟乃至全球經濟創造出無與倫比的繁榮,提高全人類的福祉。”
“我們認為,人工智能技術在中國的發展,具備基礎扎實、場景豐富、數實融合這三方面的優勢。”阿里巴巴集團董事會主席兼首席執行官、阿里云智能集團董事長兼首席執行官張勇認為,隨著社會各界的高度重視和創新生態的發展壯大,這些優勢正在不斷鞏固和加強。與此同時,“構建安全可信的人工智能”已逐步成為行業共識。
人工智能技術的發展也面臨著一系列挑戰,包括數據安全、隱私保護、知識產權等問題。這些問題隨著人工智能技術的發展和大模型的應用,被放到了更為顯著的位置。在張勇看來,只有監管部門和企業之間開展積極且具有前瞻性的溝通與合作,推動關于數字產權、數字交易、數據資產交易以及數據資產使用等多方面的規則構建,才能使新技術的使用不僅能為社會帶來新亮點和新進步,同時也能夠更好地規避在發展中可能會出現的問題。
能理解人類語言,但不能取代人類
“就在幾個月前,2023年初,大語言模型ChatGPT的出現讓大家清楚地看到,我們已經突破了語言理解的壁壘,通用人工智能達到理解人類自然語言的領域,這是多么令人驚訝的進展,完全出乎我們的意料。”人工智能促進協會原主席、康奈爾大學教授巴特·塞爾曼表示,GPT-4實現了通用人工智能的第一種形式,引入了一種新的實體,將不可避免地改變許多現有的社會結構和機制,人類需要重新思考人工智能將帶來的影響。
塞爾曼教授提到的GPT-4,是OpenAI為聊天機器人ChatGPT發布的語言模型。
“在享受人工智能帶來的好處的同時,必須認清其會帶來許多社會和倫理方面的挑戰。”阿拉伯信息通信技術組織秘書長穆罕默德·本·阿莫表示,人類智慧創造了人工智能,目的是讓生活更輕松,幫助而不是取代人類。智能可以是人工的,但智慧狀態始終是人類的專屬特權。
阿莫建議,應圍繞隱私、透明度、責任與問責、穩健性和彈性5個方面,構建安全可信的人工智能。除此之外,還應建立道德框架,并通過以人為本的設計優先考慮人類福祉,為推動構建安全可信的人工智能作出貢獻。
“網絡安全是一個根本性問題。”歐洲標準化委員會主席沃爾特·福美呼吁,“資源是有限的,專家有限的,在AI領域,我們必須充分合作和協作,避免重復性工作。”
(責任編輯:歐云海)