一篇7000字的結課報告,一個大三學生在AI的輔助下,僅用一周便完成了,比以往至少省去了一半的時間。
隨著ChatGPT向公眾開放,擁抱AI成為趨勢,也帶來了用與不用、用在哪里以及用多用少等爭議。
在AI的輔助下,不少研究人員、高校學生開始習慣用各類大模型來協助他們完成論文潤色、編寫分析數據代碼和制圖。
但也正是因為AI滲透度提高,老師們擔心學生的原創(chuàng)能力被削弱。同樣在其他行業(yè),AI輔助也面臨著生產效率和相似度“雙升”的矛盾。
邊界問題不得不談。
以復旦大學為代表,國內多所高校開始探索AI技術的應用規(guī)范。比如,對AI在本科畢業(yè)論文的使用,明確提出“六個禁止”。
至少,有了規(guī)范就能讓學生心中有數,用好用對AI。在具體實操中,知道哪些具體環(huán)節(jié)是不被允許的、哪些不當應用屬于學術不端、哪些環(huán)節(jié)需要標注使用情況等。
2024年被稱為人工智能應用元年。人與AI的關系,在社交、游戲、教育和內容創(chuàng)作等多個場景,因為使用變得越來越緊密。
回顧ChatGPT問世兩年,關于AI的技術革新和使用倫理的思考也逐步深入,AI應用的商業(yè)化步入人們的視野,資本對新賽道的生產力增長虎視眈眈。
AI借由算法生成的文字、圖片甚至影像,其質量之高,越來越接近或者滿足了人的預期,大家不約而同地意識到,“一刀切”禁止并不現實。
和大學生一樣,很多打工人將AI工具作為工作學習的小助手,使其代勞一些前期準備和重復性工作,其實很正常。
不過,如果把AI當成是“槍手”“工具人”,自己退居幕后讓AI全權代勞,對結果不負責任,任由其復制粘貼、隨意拼湊,就逾越了合理邊界。
AI時代,不會使用AI,其獲取信息的效率、掌握知識的能力、運用新工具的技能都會減弱,而過度依賴AI,不僅會導致原創(chuàng)能力下降,還會在未來的職業(yè)發(fā)展中面臨挑戰(zhàn)。
和教育一樣,很多行業(yè)都將面對人與人工智能深度合作,進入人機協同創(chuàng)作時代。
一邊是驚喜不斷,節(jié)省時間、提高效率、革新傳統(tǒng)生產模式,另一邊是矛盾重重,就業(yè)焦慮、創(chuàng)造力缺失、過度自動化……
在驚喜和矛盾之間,對于人機協同分工、方法的探索、邊界的厘清都迫在眉睫。
規(guī)范邊界,不斷地找到卡尺和準繩,才能在具體的持續(xù)實踐中形成與AI的良性互動。
當下,如何突破AIGC內容中人工智能單一、機械的“類人”身份與邊界范式,讓人工智能以“非人類”的智能與人類產生深度協作,成為與AI共存、讓AI科學地為我所用的重要課題。
北京商報評論員 陶鳳
本網站所有內容屬北京商報社有限公司,未經許可不得轉載。 商報總機:010-64101978 媒體合作:010-64101871
商報地址:北京市朝陽區(qū)和平里西街21號 郵編:100013 法律顧問:北京市中同律師事務所(010-82011988)
網上有害信息舉報 違法和不良信息舉報電話:010-84276691 舉報郵箱:bjsb@bbtnews.com.cn
ICP備案編號:京ICP備08003726號-1 京公網安備11010502045556號 互聯網新聞信息服務許可證11120220001號