返回文章列表

人工智慧技術發展與未來挑戰

本文探討人工智慧從專門智慧到通用智慧的發展歷程、挑戰。從當前 AI 的能力與侷限出發,分析了深度學習、無監督學習、強化學習等技術的發展趨勢,並探討了知識圖譜、遷移學習等技術在實作通用智慧中的重要作用。此外,文章還關注了 AI 的倫理問題、社會影響以及如何引導 AI 的發展,使其真正造福人類。

人工智慧 機器學習

隨著深度學習的興起和大資料時代的到來,人工智慧技術在近年取得了顯著的進展,從影像識別到自然語言處理,AI 應用已滲透到各個領域。然而,當前的 AI 系統大多侷限於特定任務,缺乏跨領域的通用性和適應性。要實作真正的通用智慧,仍需克服諸多挑戰,例如如何讓機器在無監督的情況下學習、如何構建更具彈性的 AI 架構以及如何解決遷移學習的難題。未來,無監督學習、強化學習和知識圖譜等技術將成為 AI 發展的關鍵方向,而如何應對 AI 帶來的倫理和社會影響,也是我們需要思考的重要議題。

人工智慧的現在與未來:從專門智慧到通用智慧的挑戰

人工智慧(AI)正以前所未有的速度發展,並逐漸從研究領域轉向企業應用。無論是Google還是Facebook,都已經在產品中廣泛採用AI技術。展望未來十年,AI將持續滲透到各類別產品中,改變我們的生活與工作方式。我們將與智慧機器人溝通,而不是傳統的自動撥號系統;汽車將能夠規劃路線並對道路危險做出反應。可以預見,未來幾十年,AI的某些特徵將被整合到我們所接觸的每一個應用程式中。

當前的人工智慧:能力與侷限

對AI的描述跨越多個維度,包括強度(智慧程度)、廣度(解決特定問題還是通用問題)、訓練方式(如何學習)、能力(解決什麼樣的問題)以及自主性(是輔助技術還是獨立行動)。過去二十年的成果令人矚目:Deep Blue在國際象棋中擊敗了卡斯帕羅夫;Watson在《危險邊緣》節目中戰勝了歷屆冠軍;AlphaGo則擊敗了圍棋世界冠軍李世石。然而,這些成功都是有限的,它們都是高度專門化的單一任務機器。

這些系統的智慧非常狹隘,無法泛化。例如,Deep Blue和Watson無法下圍棋,而AlphaGo也無法下國際象棋或參加《危險邊緣》節目。雖然Watson被用於醫療診斷等應用,但它本質上仍是一個問答機器,需要針對特定領域進行調整。AlphaGo具備更通用的架構,但仍包含了大量手動編寫的知識。

程式碼例項:

import numpy as np

# 假設這是一個簡單的神經網路模型
class SimpleNN:
    def __init__(self, input_size, output_size):
        self.weights = np.random.rand(input_size, output_size)

    def forward(self, x):
        return np.dot(x, self.weights)

# 初始化模型
model = SimpleNN(10, 5)
input_data = np.random.rand(1, 10)
output = model.forward(input_data)
print(output)

內容解密:

這段程式碼展示了一個簡單的神經網路模型的基本實作。首先,我們定義了一個名為SimpleNN的類別,包含初始化權重矩陣和前向傳播方法。權重矩陣使用隨機數初始化。在前向傳播過程中,輸入資料與權重矩陣進行矩陣乘法運算,以產生輸出結果。這種簡單的神經網路結構是深度學習的基礎,但要實作通用智慧,還需要更複雜的架構和訓練方法。

邁向通用智慧

要從狹隘的專門智慧轉向更通用的智慧,我們需要機器能夠解決不同型別的問題,而無需被程式設計特定的領域知識。也就是說,我們希望機器具備足夠的靈活性,可以在無監督的情況下學習,並自主選擇學習內容,無論是下棋還是設計電路板。

雖然AlphaGo透過分析數千局遊戲並自我對弈來「學習」下圍棋,但相同的軟體無法用於掌握國際象棋。這表明,我們距離實作足夠靈活的通用智慧仍有很大差距。

為什麼人工智慧引起如此大的興趣?

近年來,AI之所以引起廣泛關注,是因為其在多個領域取得了顯著進展,包括電腦視覺、遊戲對弈等。企業開始將AI技術應用於實際產品和服務中,從而推動了AI的發展和普及。

邁向通用人工智慧的挑戰

通用人工智慧(General Intelligence)一直是人工智慧研究領域的終極目標。通用人工智慧系統能夠執行多種任務,並適應未預期的情況,這與目前專注於特定任務的狹隘人工智慧(Narrow AI)有著本質上的不同。狹隘人工智慧在特定領域表現出色,例如下棋、影像識別或自然語言處理,但它們缺乏跨領域的通用性。

自駕車的例子

自駕車是當前人工智慧技術整合的典型例子。自駕車需要結合模式識別、推理、規劃和記憶等多種能力。它能夠識別道路標誌和障礙物,理解交通規則,並規劃出從當前位置到目的地的最佳路線。然而,儘管自駕車整合了多種人工智慧技術,它仍然無法像人類一樣具有靈活性。你不會期望自駕車能夠與你進行對話或幫你設計花園。這說明瞭當前人工智慧系統在實作通用智慧方面的侷限性。

內容解密:

自駕車的多重能力需求顯示了當前人工智慧技術的進步,但也突出了其侷限性。自駕車需要:

  • 模式識別:識別道路標誌、行人和其他車輛。
  • 推理:理解交通規則,預測其他道路使用者的行為。
  • 規劃:規劃出安全的駕駛路線。
  • 記憶:記住地圖資訊和之前的駕駛經驗。

這些能力使得自駕車能夠在複雜的交通環境中行駛,但它們仍然是專門為駕駛任務設計的,無法輕易地轉移到其他領域。

通用人工智慧的挑戰

實作通用人工智慧的最大挑戰之一是遷移學習(Transfer Learning)。遷移學習指的是將在一個領域獲得的知識應用到另一個領域的能力。當前的人工智慧系統在這方面表現不佳。例如,你可以重新利用自駕車中的某些軟體元件來執行其他任務,但這需要大量的重新設計和調整。

未來方向

研究人員正在探索新的方法來實作通用人工智慧,例如使用多種技術的組合。AlphaGo 的開發者聲稱他們使用了比 Deep Blue 更通用的方法來開發 AlphaGo。AlphaGo 透過觀察圍棋遊戲進行學習,而不是依賴於大量的圍棋策略知識。這指向了監督學習(Supervised Learning)之外的未來方向,即機器可以透過觀察和互動進行學習,而不僅僅是透過標記的資料進行訓練。

內容解密:

AlphaGo 的開發展現了強化學習(Reinforcement Learning)和深度學習(Deep Learning)的力量。AlphaGo 透過自我對弈進行學習,這使得它能夠發現新的策略和技巧。這種方法與傳統的依賴於人類專家知識的方法不同,它展示了機器透過自主學習實作超越人類水準的可能性。

超級智慧的可能性

超級智慧(Super-intelligence)或超級智慧(Hyper-intelligence)是通用人工智慧之後的下一步。超級智慧可能具備比人類更強大的智慧能力,但目前尚不清楚如何定義或實作超級智慧。有些人認為超級智慧可能具備創造力和主動性,但這些特質目前仍難以被精確定義或在機器中實作。

人工智慧的未來:無監督學習與強化的挑戰

人工智慧(AI)領域一直以來都聚焦於如何讓機器模仿人類的智慧,而這其中的一大挑戰便是無監督學習(Unsupervised Learning)。無監督學習是指機器在沒有明確標籤或分類別的情況下,自動學習如何組織和結構化資料。Facebook 的 Yann LeCun 在一則貼文中指出,「在我們思考如何達到真正的 AI 之前,我們需要先解決無監督學習的問題。」

無監督學習的核心挑戰

在圖片分類別任務中,AI 系統通常會被提供數百萬張已經被正確分類別的圖片。經過這些分類別的學習後,系統會被測試是否能夠正確標記新的圖片。那麼,如果沒有標籤,機器能否自行發現圖片中的重要特徵?它能否在沒有後設資料(如「這是一隻鳥」、「這是一架飛機」或「這是一朵花」)的情況下,理解圖片的內容?

人類和動物都能夠從相對較少的資料中形成模型和抽象概念。例如,我們不需要數百萬張圖片就能辨認出一種新的鳥類別,或是在一個新的城市中找到方向。預測影片的未來幀是研究人員正在努力解決的問題,這需要 AI 系統具備對世界運作方式的理解。

無監督學習的實踐與限制

人類可以解決許多問題,但並非總是表現出色。無監督學習指向的問題不能僅僅透過更好的硬體或現有的函式庫來解決。目前,研究人員正在探索介於監督學習和無監督學習之間的方法,例如強化學習(Reinforcement Learning)。在強化學習中,系統會根據某種獎勵機制進行學習,以最大化成功的機率。

智慧的定義與挑戰

我們對「智慧」的定義是一個基本問題。Beau Cronin 在 2014 年的一篇 Radar 文章中,對 AI 的多種定義進行了總結。我們對人工智慧的期望取決於我們希望 AI 執行的任務。關於 AI 的討論通常從圖靈測試(Turing Test)開始。圖靈測試假設人們透過類別似聊天的模式與電腦互動,但這種假設限制了我們對電腦能力的期望。

圖靈測試的侷限性

圖靈測試並不關注 AI 的正確性,而是允許其答案具有模糊性或錯誤,就像人類一樣。如果我們假設 AI 必須體現在能夠運動的硬體中,例如機器人或自動駕駛車輛,我們就會得到不同的評估標準。目前,我們已經能夠構建比大多數人類更擅長規劃路線和駕駛的 AI 系統。

自動駕駛與機器人倫理

自動駕駛汽車尚未解決許多困難的駕駛問題,例如在暴風雪中行駛於山路上。無論 AI 系統是體現在汽車、無人機還是人形機器人中,它所面臨的問題本質上都是相似的:在安全、舒適的環境中表現良好是容易的,但在高風險、危險的情況下表現良好則要困難得多。

機器人行為與倫理

能夠採取物理行動的 AI 系統迫使我們思考機器人行為的倫理問題。我們是否應該遵循阿西莫夫的機器人三大法則?如果我們認為機器人永遠不應該傷害人類,那麼已經投入使用的武裝無人機已經打破了這一規則。當不可避免地發生事故時,自動駕駛汽車應該選擇撞向嬰兒還是老人?這些都是我們在發展 AI 技術時必須面對的問題。

人工智慧的定義與未來走向

人工智慧(AI)一直是個引人入勝且複雜的話題。我們經常聽到關於自動駕駛汽車和機器人將如何改變我們的生活,但很少探討人工智慧的本質。在本文中,我們將探討人工智慧的定義、其應用以及未來可能的發展方向。

人工智慧的倫理與挑戰

人工智慧的發展引發了許多倫理問題。例如,自動駕駛汽車在面臨事故時應該如何反應?它是否應該犧牲乘客以避免傷害旁觀者?這些問題很難回答,而且很難想像人類會購買一輛在他們生命受到威脅時會犧牲他們的車輛。我們可能不需要機器人來回答這些問題,但這些問題一定會在福特、通用汽車、豐田和特斯拉的董事會中被討論。

人工智慧的定義

我們可以透過拋開對話系統或自主機器人系統的複雜性來更簡單地定義人工智慧。人工智慧是關於建立能夠回答問題和解決問題的系統。這類別系統可以進行複雜的邏輯推理,被稱為「專家系統」。然而,正如Beau Cronin指出的那樣,解決人類認為具有智力挑戰性的問題相對容易,而解決人類認為容易的問題則困難得多。很少有三歲的孩子能夠下圍棋,但所有三歲的孩子都可以辨認出自己的父母。

智慧的定義取決於我們的目標

我們所謂的「智慧」很大程度上取決於我們希望這種智慧做什麼。沒有一個單一的定義能夠滿足我們所有的目標。沒有明確的目標來告訴我們正在嘗試實作什麼,以及如何衡量是否已經實作,那麼從狹義人工智慧到通用人工智慧的轉變將不會容易。

助理還是執行者?

媒體對人工智慧的報導主要集中在自主系統上,即機器自行運作的系統。這是人工智慧有趣、性感且有點嚇人的面貌。人們很容易幻想一個由機器主導的未來。然而,人工智慧還有更多內容,而不僅僅是使人類過時的自主裝置。人工智慧的真正價值在於它是人工智慧還是智慧增強?是AI還是IA?這個問題自第一次嘗試人工智慧以來就一直存在,並在John Markoff的《愛的恩典機器》(Machines of Loving Grace)中得到了探討。

人工智慧的應用

GPS導航系統是一個優秀的人工智慧增強人類智慧的例子。大多數人類可以在有好地圖的情況下從A點導航到B點,但我們的導航能力有很多不足之處,特別是在陌生的地區。規劃兩個地點之間的最佳路線是一個困難的問題,特別是當你考慮到交通和道路狀況等問題時。但是,除了自動駕駛汽車外,我們從未將導航引擎連線到方向盤。GPS嚴格來說是一種輔助技術:它提供建議,而不是命令。

人工智慧的發展

在過去幾年中,我們已經看到了許多符合人工智慧定義的應用。幾乎任何屬於「機器學習」範疇的東西都可以被視為人工智慧。亞馬遜的推薦引擎是人工智慧,Stitchfix這樣結合時尚專家選擇和推薦引擎選擇的網路應用程式也是人工智慧。我們已經習慣了(並且經常被)處理客戶服務電話的聊天機器人所困擾。

下一代助理

下一代助理將是(並且已經是)半自主的。多年前,拉里·佩奇說《星際迷航》中的電腦是理想的搜尋引擎:它是一台理解人類、已經消化了所有可用資訊、並且可以在問題被問之前就回答了問題的電腦。如果你曾經使用過Google Now,你可能會對它第一次告訴你要提前出發去某個約會因為交通狀況不佳而感到驚訝。

內容解密:

本段落討論了人工智慧未來的發展方向,特別是在助理系統方面。下一代助理將具備半自主性,能夠理解人類需求並提供適當的幫助。Google Now就是一個例子,它能夠根據交通狀況提供出行建議。這種技術的發展將進一步增強人類與機器之間的互動,使機器更加智慧和有用。

為何人工智慧再度成為熱門話題?

人工智慧(AI)經過數十年的「AI寒冬」後,如今再度成為眾人矚目的焦點。過去,AI曾在深藍(Deep Blue)和華生(Watson)計畫後短暫掀起波瀾,但這些熱潮並未持續。有人可能會將當前AI的崛起視為另一波曇花一現的熱潮,但事實上,這忽略了過去十年的重大變革。

硬體技術的進步

AI的崛起依賴於電腦硬體的巨大進步。自AI寒冬開始以來(維基百科將其追溯到1984年),計算效能和儲存技術取得了巨大的進步。例如,AlphaGo據報導執行在1,920個CPU和280個GPU上;擊敗李世石的機器可能更大,並使用了Google為建立神經網路而開發的自定義硬體。即使AI演算法在典型筆記型電腦上執行太慢,但現在可以輕易且相對廉價地在AWS、GCE和Azure等雲端平台上分配嚴肅的運算能力。

資料的儲存與生成

除了儲存和處理資料的能力外,我們現在還能夠生成大量資料。在80年代,大多數攝影是模擬的,而現在幾乎都是數位的,並且許多照片儲存線上上服務中,如Flickr、Google Photos、Apple Photos、Facebook等。許多線上照片已經標記了一些描述性文字,使它們成為訓練AI系統的良好資料集。同樣,我們的對話也大多線上上進行,透過Facebook、Twitter和許多聊天服務。我們的購物歷史也是如此。因此,我們(或者更準確地說,是Google、Apple、Yahoo、Facebook、Amazon等公司)擁有訓練AI系統所需的資料。

演算法的進步

我們也在演算法方面取得了重大進展。神經網路並不是特別新的概念,但「深度學習」將一系列網路堆積疊起來,並透過回饋讓網路自動訓練自己。深度學習試圖解決機器學習中最難的人類問題之一:從資料中學習最佳表示和特徵。處理大量資料很容易,但特徵學習更像是一門藝術而非科學。深度學習自動化了這門藝術的一部分。

開放的函式庫與工具

不僅演算法取得了進步,這些演算法還被實作在廣泛可用的函式庫中,如Caffe、TensorFlow、Theano、Scikit-Learn、MXNet、CNTK等。AI不再侷限於學術環境中的電腦科學研究人員;越來越多的人可以參與其中。正如Pete Warden所展示的那樣,你不需要知道如何實作複雜的演算法並使其在硬體上合理執行。你只需要知道如何安裝函式庫和標記訓練資料。

建立知識資料函式庫

這個世界充滿了「暗資料」:非結構化的資訊,不儲存在整齊的資料函式庫中。它們存在於網站上,埋藏在表格中,儲存在照片和影片中;但它們不容易被機器智慧或其他智慧所存取。像diffbot和deepdive這樣的專案使用半監督學習來發現非結構化資料中的結構——無論是大量的科學論文還是許多網站的抓取資料。一旦他們建立了資料函式庫,該資料函式庫就可以被更傳統的工具存取,無論是API、SQL陳述式還是桌面應用程式。

知識圖譜的重要性

知識資料函式庫和圖譜已經在許多智慧應用中使用,包括Google的知識圖譜。當我們朝著對話式應用邁進時,挖掘暗資料並在其上建立結構的能力將變得更加重要。有效地利用暗資料將是從指令碼化和狹隘目的聊天應用轉向能夠接受任意問題並傳回答案給使用者的應用的關鍵。

產生結果

與AI寒冬時期不同,當時的資料有限且電腦速度慢,如今我們到處都能看到成功的AI系統。Google Translate雖然不如人類翻譯員,但經常能提供可用的翻譯。語音辨識系統也變得普遍且令人驚訝地準確;一年前,Google聲稱Android手機可以正確理解92%的問題。給定電腦可以正確地將問題轉換為文字,下一步就是將問題轉換為答案。

影像辨識與處理

同樣,影像辨識和處理已經變得普遍。儘管有一些高度公開且令人尷尬的錯誤,但電腦視覺系統能夠以幾年前無法想像的準確度識別人臉。可以說,正確地約束問題在這項成功的背後扮演了巨大的角色:Facebook能夠識別你照片中的人臉,因為它假設你照片中的人很可能是你的朋友。

內容解密:

影像辨識技術已經廣泛應用於各種領域,包括社交媒體中的人臉辨識、自動駕駛車輛中的視覺系統等。這種技術的發展得益於深度學習和神經網路的進步,使得電腦能夠處理和分析大量的影像資料,從而實作高精確度的影像辨識。

深度學習與神經網路

深度學習和神經網路在過去一年中吸引了大量關注:它們使得電腦視覺、自然語言等領域取得了進步。然而,幾乎任何屬於機器學習範疇的技術都可以被視為人工智慧:分類別和聚類別演算法、各種型別的決策樹、遺傳演算法、支援向量機、層次時間記憶等。這些技術可以單獨使用,也可以相互結合使用。IBM的Watson就是整合學習的一個很好的例子:它是一個根據規則的系統,結合了多種機器學習技術。

內容解密:

深度學習是一種機器學習方法,透過模擬人類大腦的神經網路結構來處理資料。它在影像和語音辨識等領域取得了重大突破。神經網路則是深度學習的核心組成部分,透過多層的神經元來處理複雜的資料模式。

人工智慧的未來與挑戰

人工智慧(AI)領域近年來取得了令人矚目的進展,從IBM的Watson到DeepMind的AlphaGo,這些系統在特定領域展現了超乎尋常的能力。然而,這些成就背後卻隱藏著許多挑戰和限制。

手動調校的侷限

目前許多AI系統需要大量的手動調校,這不僅耗時耗力,也限制了AI的廣泛應用。Demis Hassabis,AlphaGo團隊的長官者,將調校比喻為一種「藝術形式」,這凸顯了AI開發的複雜性。手動調校的存在使得AI系統往往被設計成解決特定問題,難以實作通用智慧。

內容解密:

手動調校意味著開發者需要根據具體問題調整演算法引數,這種過程不僅需要深厚的專業知識,也極其耗時。未來AI的發展需要減少對手動調校的依賴,才能實作真正的通用智慧。

演算法與硬體的雙重推進

AI的進步依賴於演算法和硬體的共同發展。雖然處理器的時脈速度已經停滯不前,但晶片上能夠整合的元件數量卻持續增加。AlphaGo使用的280個GPU意味著它能夠利用多達20萬個核心進行運算。此外,數學函式庫和GPU使用工具的改進也對AI的發展起到了重要作用。

import numpy as np

# 使用GPU加速矩陣運算
import cupy as cp

# 建立一個大型矩陣
matrix = cp.random.rand(1000, 1000)

# 進行矩陣乘法運算
result = cp.matmul(matrix, matrix)

#### 內容解密:
這段程式碼展示瞭如何使用CuPy函式庫在GPU上進行矩陣運算透過將資料轉移到GPU上可以顯著加速計算過程這對於需要大量矩陣運算的AI演算法至關重要

平行計算的挑戰

雖然平行計算能夠顯著提高運算能力,但它也面臨著諸多挑戰。阿姆達爾定律(Amdahl’s Law)指出,程式中無法平行化的部分將成為效能瓶頸。在AI系統中,如何有效地收集部分結果並產生最終結果是一個關鍵問題。

增加硬體運算能力可能會使AI在特定領域表現更好,但這是否能推動從監督學習到無監督學習,乃至從狹義智慧到通用智慧的轉變,仍有待觀察。無監督學習是一個艱難的問題,單純依靠增加硬體可能無法解決。

道德與未來

談到超級智慧時,人們很容易感到恐懼。有些人認為,我們需要在為時已晚之前決定我們希望機器做什麼。然而,限制我們尚無法構建、且對其能力尚無法理解的裝置是非常困難的。歷史上,人們曾對許多現在看來理所當然的技術感到恐懼,例如高速旅行曾被認為會致命。

對未來的思考

大多數對超級智慧的恐懼,其實並不是對機器本身的恐懼,而是對人類本性在極端情況下可能造成的後果的恐懼。我們應該思考如何開發能夠協助人類的機器,而不是單純地追求技術的極限。

此圖示展示了AI發展的不同方向:

@startuml
skinparam backgroundColor #FEFEFE
skinparam componentStyle rectangle

title 人工智慧技術發展與未來挑戰

package "機器學習流程" {
    package "資料處理" {
        component [資料收集] as collect
        component [資料清洗] as clean
        component [特徵工程] as feature
    }

    package "模型訓練" {
        component [模型選擇] as select
        component [超參數調優] as tune
        component [交叉驗證] as cv
    }

    package "評估部署" {
        component [模型評估] as eval
        component [模型部署] as deploy
        component [監控維護] as monitor
    }
}

collect --> clean : 原始資料
clean --> feature : 乾淨資料
feature --> select : 特徵向量
select --> tune : 基礎模型
tune --> cv : 最佳參數
cv --> eval : 訓練模型
eval --> deploy : 驗證模型
deploy --> monitor : 生產模型

note right of feature
  特徵工程包含:
  - 特徵選擇
  - 特徵轉換
  - 降維處理
end note

note right of eval
  評估指標:
  - 準確率/召回率
  - F1 Score
  - AUC-ROC
end note

@enduml

內容解密:

這張圖展示了AI發展的兩條主要路徑:增加硬體能力和改進演算法。無論哪條路徑,最終目標都是實作通用智慧乃至超級智慧。然而,這個過程伴隨著諸多挑戰和不確定性。

人工智慧的發展與社會價值的反思

人工智慧(AI)一直是人們關注的焦點,我們對它的恐懼源於對未知事物的擔憂。我們常將AI想像成一個無敵的機器,它能夠思考我們無法理解的事情。然而,這種想像往往被賦予了人性化的特質,例如將其比喻為希特勒或史達林這樣的獨裁者。我們的恐懼本質上仍是源自人類自身的恐懼:害怕無所不能的機器像人類一樣行動。

從微軟Tay看AI學習的過程

微軟的Tay是一個典型的例子,展示了AI如何從人類互動中學習並反映出人類的偏見。Tay是一個對話式AI機器人,它在網路上與人們互動後學會了種族主義和偏執言論。另一個例子是Google的圖片分類別系統錯誤地將一對黑人辨識為「大猩猩」,這是由於測試不足以及訓練資料集中缺乏足夠的黑人圖片標籤。這表明機器學習的方式與人類相似:它們會反映出我們教給它們的東西,無論是有意還是無意。

如何避免AI反映出負面的人類價值

這是一個人類問題,而非機器智慧問題。我們可以透過更謹慎地選擇AI的學習內容、改進訓練資料集的標籤方式,以及過濾可接受的回答來解決這一問題。這些措施並不困難,但需要我們達成共識:種族主義和仇恨是不可接受的。這是一個關於人類價值觀的問題,而非機器智慧本身。

AI研究需要公開透明

白宮的一份關於資料科學的報告強調了稽核演算法以確保人們受到公平對待的必要性。隨著AI的發展,我們需要確保我們的演算法反映了我們支援的價值觀。公開透明的AI研究至關重要,這不僅是為了減少公眾的恐懼,更是因為關起門來進行的研究更容易引發人們的擔憂。

OpenAI與公開透明的AI研究

OpenAI的成立正是為了推動數位智慧的發展,使其能夠造福全人類,而不受限於財務回報。這是一個對抗AI恐懼的大膽嘗試:將AI研究向前推進,但要公開透明,確保公共領域的研究領先於關起門來進行的研究。

公開透明研究的重要性

歷史告訴我們,研究的目的往往決定了其應用。例如,核能的研究曾經被國防部門控制,導致安全高效的釷反應堆積未能被開發。類別似地,如果AI研究僅由軍方或國家情報機構主導,我們可能會得到優秀的自動目標定位無人機或監聽系統,但我們可能會忽視AI在醫療系統或機器人護理助手等領域的潛力。

AI的發展需要公共參與

為了讓AI服務於人類,我們需要在公共領域開發它,作為更大範圍內的AI研究社群的一部分,並納入更廣泛的公眾對我們的目標和願望的討論。我們需要小心避免創造出我們自己的噩夢,但我們必須意識到,這個噩夢本質上只是我們自身的一個更強大的版本。

馬克·祖克柏談AI未來的發展

馬克·祖克柏最近表示,AI將在5到10年內在大多數基本任務上超越人類。然而,他所指的是一種狹隘的智慧,即特定任務如語音識別、影像分類別和遊戲對戰等。這種智慧與真正的通用智慧是有區別的。無論如何,AI的發展將繼續改變我們的世界,我們需要謹慎地引導這一過程,以確保它能夠造福人類。

人工智慧的未來:何時才能實作真正的智慧?

人工智慧(AI)一直是科技領域的熱門話題,但實作真正的人工智慧究竟需要多久?許多專家認為,達到人類水平的人工智慧(HLMI)仍遙遙無期。根據最近的一項專家調查,HLMI 有 50% 的機率會在 2040 年至 2050 年之間實作。Yann LeCun 也表示,人類水平的通用 AI 仍需要幾十年的時間。

從「未來」到「現今」:AI 的演變

幾年前,Jason Huggins 曾做出一個精闢的觀察:機器人總是被認為是在未來的某個時間點才會出現,但隨著時間的推移,部分機器人技術會逐漸融入現今的生活,並不再被視為機器人技術。例如,在 1920 年代,現代的洗碗機可能被視為超級智慧機器人,但現在它只是我們日常生活中的一台普通家電。

同樣的情況也會發生在人工智慧上。事實上,這種現象已經在發生了。許多以前被認為是 AI 的技術,現在已經變得司空見慣,例如 Amazon 的推薦系統、GPS 導航系統等。我們可能對 Facebook 和 Google 的照片標記功能感到有點不安,但我們並不會將其視為 AI。所有認真的西洋棋棋手都會與西洋棋程式對弈,圍棋初學者也是如此。在 AlphaGo 成功之後,與電腦對弈將會擴充套件到專家級別。這些都是已經融入我們生活的 AI 技術,它們已經變成了「智慧增強」(IA),即輔助人類的自主技術。

AI 無所不在,我們卻渾然不覺

我們是否能夠指著某個東西說:「是的,這就是人工智慧」?答案是肯定的,我們現在就可以這樣做。但更重要的是,我們將不可避免地被 AI 包圍,甚至在不知不覺中。我們已經對管道工程和電力供應習以為常,我們的孩子更是對串流音樂習以為常。同樣地,我們也會對 AI 習以為常,即使它在我們生活中的比重越來越大。

人工智慧的現況與未來

人工智慧已經在許多領域取得了突破,例如資料分析、自然語言處理等。隨著技術的不斷進步,AI 將會越來越深入地融入我們的生活中。雖然我們無法準確預測 AI 的未來,但可以肯定的是,它將會對我們的社會產生深遠的影響。

結語

人工智慧的發展是一個漸進的過程,它將會不斷地改變我們的生活方式和工作方式。雖然實作真正的人類水平 AI 仍需要一段時間,但我們已經可以看到 AI 在各個領域的應用和影響。未來,AI 將會變得越來越普遍,我們需要做好準備,以充分利用這項技術帶來的機會和挑戰。

作者簡介