火鷹視角

關注互聯網,關注技術開發,透析與分享移動互聯網行業最新動態
當前位置: 網站首頁 > > ChatGPT法律規范與倫理問題,王春暉傳授你正確看待的角度!

ChatGPT法律規范與倫理問題,王春暉傳授你正確看待的角度!

時間:時間: 2023-05-25 10:50:57   閱讀: 分類:APP開發
生成式AI面臨技術規范還是倫理問題?國家網信辦公布《生成式人工智能服務管理辦法(征求意見稿)》!
生成式AI面臨技術規范還是倫理問題?國家網信辦公布《生成式人工智能服務管理辦法(征求意見稿)》!

最近,國家網信辦公布了《生成式人工智能服務管理辦法(征求意見稿)》。這份文件旨在就類似ChatGPT等基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術進行相應規范。按照《生成式AI意見稿》的要求,我國支持人工智能算法、框架等基礎技術的自主創新、推廣應用和國際合作,同時鼓勵采用安全可信的軟件、工具、計算和數據資源。此外,《生成式AI意見稿》還提出了五項要求,包括遵守法律法規、尊重社會公德、公序良俗、防止歧視和虛假信息、防止傷害他人身心健康、防止侵犯肖像權、名譽權和知識產權等。

然而,筆者認為,在生成式AI的發展進程中,其最大問題不是技術本身,而是生成式AI的技術倫理和法律問題。因此,《生成式AI意見稿》應當增加生成式AI相關倫理規范的規定,特別是在生成式人AI全生命周期各環節自省自律,并加強生成式AI問責機制。生成式AI的倫理不僅涉及科學研究,也包括成果應用中的倫理問題。

這份《生成式AI意見稿》是對人工智能管理的一次重要探索,使生成式AI技術得以更好地服務于人類社會,同時也為我們提供了一個思考科技倫理和法律的契機。


生成式人工智能引起全球關注:ChatGPT安全風險引發AI專家出手!

人工智能技術的爆發期已經到來,尤其是生成式AI(Generative AI),它利用算法、模型、規則生成和創建新內容,可用于代碼生成、文本問答、圖像生成等。然而,隨著ChatGPT等生成式AI的應用日益廣泛,人們開始關注安全風險問題。

最近,非營利組織人工智能與數字政策中心(CAIDP)向美國聯邦貿易委員會(FTC)投訴稱GPT-4存在“有偏見性、欺騙性,對隱私和公共安全構成風險”,并違反了FTC法案第5條。同時,1000多名科技專家簽署的一份公開信也引起了全球廣泛關注,呼吁暫停大型人工智能研究,為期至少6個月,并建議各大企業、機構共同開發適用于AI研發的安全協議。

作為AI領域的企業家、學者、高管,這些AI專家認為,雖然AI技術在很多領域已經取得了很大的進展,但這些進展也帶來了一些潛在的危險。他們擔心,超強的AI可能在未來對人類產生威脅,因此需要對這項技術進行更加深入的研究和探討。此外,公開信中還提到了AI技術可能給社會帶來的影響,包括取代很多人類工作、導致失業率上升以及對社會的隱私和安全造成威脅。

可以看出,生成式AI的安全風險問題已經引起全球高度關注。筆者認為,加強對AI技術的監管和控制、制定適用于AI研發的安全協議是必要的,只有這樣,人工智能才能更好地服務于人類,而不是對人類產生威脅。


ChatGPT威脅社會結構,教育界已公開抵制!

ChatGPT作為生成式AI的杰出代表,已經成為人工智能領域的熱門話題。然而,其應用正在對社會結構構成真實而迫在眉睫的三大威脅。

首先,ChatGPT需要獲取足夠多和準確的知識與信息來保證良好的用戶體驗,但許多信息涉及國家機密、商業機密和個人隱私,獲取和利用這些信息本身存在合法性問題。其次,ChatGPT被學生用于完成作業和撰寫論文,對教育界和學術界造成了重大沖擊,特別是美國有89%的學生用ChatGPT寫作業,目前尚未研究出可準確檢測這種作弊行為的技術。最后,ChatGPT的數據輸出功能承載著后臺技術操控者的話語權,用戶越多、使用范圍越廣就意味著其話語權越大、價值滲透力越強,容易引發意識形態滲透,誤導用戶,扭曲大眾價值觀,引起社會動蕩,妨害社會公平正義。

為了防止ChatGPT對教育、社會和人類價值觀造成進一步的威脅,世界多國教育系統及相關從業者已公開抵制ChatGPT。例如,美國多所大學計劃減少居家評估,增加手寫論文和口試;紐約、巴爾的摩和洛杉磯的學區叫停了學校管理的網絡訪問聊天機器人;法國頂尖學府之一的巴黎政治學院也宣布禁止使用ChatGPT。最近,意大利個人數據保護局(DPA)還發表聲明,禁止在意大利使用ChatGPT,并指責其違反歐盟《通用數據保護條例》(GDPR),成為歐洲第一個以國家名義禁用ChatGPT的國家。

可以看出,ChatGPT的應用已經引起了全球范圍內的關注和抵制。筆者認為,只有各界合作,共同制定可行的監管和控制措施,才能讓人工智能技術更好地服務于人類,而不是對人類產生威脅。


科技創新只能造福人類,不能損害生物和破壞環境!

科技創新是推動社會進步的重要力量,但其發展必須遵循科技倫理原則:科技創新和成果只能有益于或最大限度地有益于人、生物和環境,而不能損傷人、損害生物和破壞環境。為此,各國應該建立健全公開透明的AI監管體系,加強生成式AI相關法律、倫理和社會問題的同步研究。

早在2016年,IEEE發布了一份《利用人工智能和自主系統(AI/AS)最大化人類福祉的愿景》報告,提出了一個發展人工智能的一般性原則,包括體現人權、優先考慮最大化對人類和自然環境的好處、削弱人工智能的風險和負面影響等因素。這些原則將適用于所有類型的人工智能和自主系統。

建議,各國在研發生成式AI時,需要建立雙層監管結構,加強生成式AI行業和企業自律,切實加強懲戒力度,防止數據濫用、算法陷阱、侵犯個人隱私、違背倫理道德等行為。同時,要加強人工智能相關法律、倫理和社會問題的同步研究,建立保障生成式AI健康發展的法律法規和倫理道德框架。

中國的《生成式AI意見稿》為全球探索生成式AI治理提供了有益借鑒,各國應積極構建生成式AI相關法律、倫理和社會問題的國際合作和交流平臺,推動形成具有廣泛共識的生成式AI倫理國際治理框架和標準規范,確保生成式AI在倫理規范和法律框架下健康發展。

火鷹科技-移動應用開發/app開發/小程序開發
最新資訊排行榜
客服咨詢
立即報價
熱線電話
掃描二維碼
返回頂部
精品无码三级在线观看视_久久然六月丁香之西门庆梅花瓶_青草制服丝袜一区第一页_久久国产亚洲高清观看5388