未來科技黑暗面?AI創始人聲援:別盲目推廣開源大型語言模型!
時間:時間: 2023-06-06 14:29:30 閱讀: 次 分類:APP開發然而,Hinton教授卻表達了對于不斷發展擴大的大型語言模型所帶來的問題與擔憂。最近他辭去了谷歌的職位,并在劍橋大學生存風險研究中心發表了深入的演講。他指出:“開源大型語言模型的危險在于,它使得更多的瘋子可以利用AI實現他們所想要的目標?!边@對于整個社會來說,都是一種巨大的挑戰。
Hinton教授提出了一個有趣的想法:把大型語言模型“關進籠子”,可能是更有益的。他認為,讓這些AI技術繼續局限在像OpenAI等公司的實驗室內開發,最終可能會證明對我們至關重要。
他指出:“如果這些AI技術是危險的,那么最好由幾個不同國家的幾家大公司來開發,同時找到控制它的方法。一旦開源了代碼,有些人就會開始用它做各種瘋狂的事情?!?Hinton強調,“這些AI系統將變得比我們更聰明,而這一時刻可能很快就會到來。如果超級智能AI能夠在未來5到20年內實現,我們不能讓哲學家來決定該怎么做,而是需要有實踐經驗的人員來說決定?!?/span>
他補充道:“我認為最好的辦法是,AI開發商必須在開發AI模型時投入大量人力和資源來檢查它們的安全性。我們需要獲得這些方面的經驗,了解它們可能會如何失控,以及如何控制它們?!?/span>
Hinton曾供職于谷歌旗下的DeepMind AI實驗室,該實驗室日前表示已經開發出了一個早期預警系統,可以發現AI帶來的潛在風險。這些進步展示了我們不僅可以控制AI技術的發展,而且也可以在其成為威脅之前就能夠意識到其中的潛在風險。
Hinton教授提出了一個引人入勝的想法:將大型語言模型“關進籠子”或許是更有益的。他認為,讓這些AI技術繼續局限在OpenAI等公司的實驗室內開發,可能最終證明對我們至關重要。
他強調:“如果這些AI技術是危險的,那么最好由幾個不同國家的大型企業來分別進行開發,并同時找到控制方法。一旦代碼被公開,就會有某些人開始利用它們完成各種瘋狂的事情?!?Hinton認為,“這些AI系統將變得比我們更聰明,而這一時刻也許很快就會到來。如果超級智能AI能夠在未來5到20年內實現,我們不能讓哲學家來決定該怎么做,而是需要有實踐經驗的人員來做決策?!?/span>
他補充道:“我認為最好的辦法是,在開發大型語言模型時,AI開發商必須投入大量人力和資源來檢查它們的安全性。我們需要獲得這方面的經驗,以了解它們可能如何失控,及如何控制它們?!?/span>
Hinton曾供職于谷歌旗下的DeepMind AI實驗室,該實驗室近日表示已經開發出了一個早期預警系統,可以發現AI帶來的潛在風險。這些進展表明,我們不僅可以控制AI技術的發展,而且也能夠在其成為威脅之前就意識到其中的潛在風險。
網易科技訊 6月28日消息,據臺灣媒體報道,鴻海精密近日在股東大會上展示了其研發的一...