美國媒體當地時間5月1日報道,被稱為“AI教父”的美國Google副總裁辛頓離職后接受傳媒訪問,坦言對于研發人工智能技術感到后悔,怕無法防止壞人利用人工智能做壞事。
現年75歲的辛頓是人工智能技術先鋒,被尊稱為“AI教父”,他和兩名學生在2012年發明賦予電腦自我學習能力的“人工神經網絡系統”,是現時盛行的人工智能技術基礎。
不過作為業界翹楚的辛頓,較早時已向Google辭去副總裁等職務,他隨后接受《紐約時報》、英國廣播公司等傳媒訪問,直言離職的主要原因是希望能自由地向世人警告人工智能發展的潛在可怕風險。辛頓曾認為,人工智能要進化至比人類聰明,起碼要30至50年時間,但現在他認為此情況可能很快就會出現。
長遠而言,辛頓更是憂慮放任人工智能失控發展會威脅人類存亡,他表示人工智能有時會憑分析龐大的數據,學習到超乎預期的行為,亦有人容許人工智能系統以它自行編寫的程式運行。
辛頓警告如果放任不管,將難以阻止一些壞人利用人工智能做壞事,包括有可能制造出完全自主決定目標的殺人機器等,呼吁國際社會應盡快就人工智能技術發展訂立全球性規管措施,以避免惡夢般的假設狀況成真。
在比ChatGPT所使用的AI更強大的GPT-4推出后,科技業億萬富豪馬斯克和蘋果共同創辦人沃茲尼亞克和許多專家等逾千人,連署發表一封公開信,呼吁暫停AI系統的開發,以便有時間能確保這項科技是安全的。而辛頓并未參與連署,但他告訴《紐約時報》,科學家在了解能否控制AI以前,不應該”進一步擴大研發的規模”。