大型主機在企業運作中扮演關鍵角色,承載大量核心業務系統。隨著人工智慧技術的發展,將 AI 融入大型主機已成為提升效率、降低成本的重要策略。資料是 AI 的命脈,從日誌資料到資料整理技術,都對 AI 模型的訓練和預測至關重要。AI 專案的實施流程需要周密規劃,從聘請顧問到評估 IT 基礎設施,每個環節都影響專案成敗。模型選擇、訓練、佈署和使用者介面設計也需仔細考量。IBM Z 大型主機整合了 TensorFlow、ONNX、PyTorch 等 AI 工具,允許客戶在不同平台建立和訓練模型,再佈署至 Z 平台進行即時分析,提升安全性與治理能力。AIOps 利用 AI 提升 IT 維運效率,實作異常偵測、預測性監控等功能。RPA 則自動化重複性任務,提升系統效能並降低成本。未來,低程式碼/無程式碼技術將進一步推動大型主機現代化,AI、AIOps 和 RPA 將持續提升大型主機的效能和安全性,幫助企業降低成本、提高業務敏捷性。
資料是人工智慧的命脈
資料對於人工智慧(AI)的重要性不言而喻。缺乏足夠的資料,AI模型就無法有效地進行訓練和預測。一個典型的例子是2019年3月發生在紐西蘭的槍擊事件,造成50人死亡。由於AI系統無法充分識別事件的性質,槍手得以在Facebook上進行直播。Facebook的產品管理副執行長Guy Rosen在部落格文章中指出,“AI系統是根據‘訓練資料’的,這意味著需要成千上萬的內容範例來訓練系統,以偵測特定型別的文字、影像或影片。”他進一步強調,要偵測這類別影片,需要提供大量這種特定內容的資料,然而這類別事件幸運地是很少見的。
日誌資料
日誌資料(也稱為機器資料)是AI的主要資料來源之一。這些資料可以從網路裝置、應用程式和伺服器中取得。AI模型可以分析錯誤和異常值,以偵測或預測問題。在某些情況下,系統可以在無需人工干預的情況下自行修復問題。
雖然可以自行建立模型,但更常見的做法是使用日誌分析工具,如SolarWinds Loggly、Splunk或Sumo Logic。這些工具具有多項優勢:
規模
日誌分析工具可以處理龐大的資料量。例如,Sumo Logic的平台每天管理超過200 PB的資料和超過2,000萬次查詢。
整合
優秀的日誌分析工具具有與主要雲端平台(如Azure、Google Cloud和AWS)的聯結器,使得對資料進行AI分析變得更加容易。
儀錶板和視覺化
有許多範本可以輕鬆建立儀錶板和視覺化圖表,從而更有效地監控IT環境。
雲端
雲端日誌分析工具允許集中儲存資料,並且由於無需購買硬體,儲存成本較低。
然而,在大型主機環境中仍然存在挑戰。內建的日誌系統根據System Management Facility(SMF),這是一組系統和使用者編寫的例行程式,用於收集、格式化和儲存作業和記錄。日誌被寫入主要SMF資料集,當它滿時,則使用次要資料集。
主要問題在於SMF系統無法收集一些有助於更好地進行日誌分析的資訊,例如用於使用者識別的資料型別、作業型別等。因此,系統工程師需要建立一個資料轉發系統,這意味著系統必須實時運作。此外,還需要對資料進行過濾,以避免過載。最後,確保資料符合日誌分析工具所需的格式至關重要。
資料整理
資料整理是指將原始資料清理、結構化和豐富,使其能夠被AI模型使用(資料整理也稱為資料補救和資料處理)。有多種工具可以幫助自動化這個過程,但仍需要人類(如資料科學家)的介入。
常見的資料整理技術
- 異常值:檢測並處理與大多數資料不同的值。
- 重複資料刪除:移除重複的資料以避免影響AI模型的準確性。
- 合併:合併相似的欄位或刪除冗餘欄位,以避免扭曲結果。
- 一致性:確保業務資料定義的一致性。
- 驗證規則:使用規則(如IF/THEN/ELSE陳述式)來提高資料的準確性。
- 隱含資料:透過計算或組合現有資料來建立新的資料。
- 缺失資料:處理資料中的空缺,可以透過平滑資料(如使用平均值)來解決。
- 分箱:將連續資料分組,如將年齡分組。
- 轉換表:標準化資料,如將十進位制轉換為公制,或貨幣兌換。
- 獨熱編碼:處理具有非數值值的分類別資料,透過建立虛擬變數來解決排序問題。
根據Accenture對全球1,100多名高管的研究調查,約48%的人表示他們存在資料品質問題。這凸顯了在AI開發過程中進行有效資料整理的重要性。
人工智慧專案實施流程
企業軟體佈署可能具有挑戰性、耗時且昂貴,而人工智慧(AI)專案的難度更是雪上加霜。根據Gartner的報告,大約80%的AI專案從未被佈署。
這就是為什麼購買現成的AI解決方案通常是一個好主意。由於過去十年的風險投資激增,市面上有許多可用的AI解決方案。這些解決方案已經在不同的環境中使用過,因此應該能夠提供更好的資料支援。
有趣的是,許多現有的傳統軟體系統,如客戶關係管理(CRM)和企業資源規劃(ERP)應用程式,已經具備了豐富的AI功能。因此,在啟動大型專案或購買現成軟體之前,瞭解您已經擁有的技術能力是一個好方法。這是獲得AI經驗的好方法。
然而,現有的解決方案可能不足夠,最好的選擇可能是組建一個AI專案。如果是這樣,流程應該是周密計劃和詳細的。以下是一些關鍵步驟:
聘請顧問
聘請顧問可以是有效的起步方式。這樣您將獲得一支具有多個專案經驗的團隊。他們將瞭解AI的實際能力,知道該關注什麼,協助評估供應商,提供培訓,並幫助規避風險。顧問還可以協助建立堅實的基礎,甚至組建內部團隊。
專注於解決明確的業務問題
這並不像聽起來那麼容易。AI專案失敗的一個常見原因是目標過於遠大。更好的方法是從小專案開始。例如,可以是幫助自動化密碼重置流程。這可以使用自然語言處理和與現有身份驗證系統的整合。這樣的專案也很容易衡量。目標是獲得快速勝利,這將有助於為進一步投資AI積累動力。
評估IT基礎設施
一旦確定了專案的目標,您就需要確保組織擁有必要的技術和資料集。毫無意外,通常會有一些差距。但是,透過在專案開始時瞭解這些差距,您將節省時間和金錢。
取得教育資源
這一步驟經常被忽略,這可能是一個大錯誤。許多技術人員沒有資料科學和AI的背景。因此,提供一些工作坊或線上課程是一個好主意。
從小團隊開始
一個錯誤是大量徵才資料科學家。這可能很昂貴,並且會拖慢程式。相反,從一名資料科學家和一名資料工程師開始。然後,您可以從組織中引入幾個人,他們瞭解業務領域和現有的IT基礎設施。這樣的團隊應該足夠,尤其是在您有明確定義的專案時。
AI專案通常遵循兩種方法之一。最常見的是分析模型,它專注於生成洞察和預測。這類別應用不需要實時資料。它們也更容易與大型主機整合。
接下來,營運模型將AI構建到產品中——例如,使用像Uber這樣的智慧手機應用程式。這是非常複雜的技術,因為模型不斷被更新並實時處理資料。然而,營運模型可以對業務產生變革性的影響。
無論您使用營運還是分析AI,AI建模過程中都會發生幾個重要的步驟。我們已經在本章中瞭解了其中之一:資料管理和整理。在此之後,需要考慮的其他步驟包括:
模型選擇
資料科學家在這裡扮演關鍵角色,因為他們有經驗知道該嘗試哪些演算法,以及資料需求是什麼。通常也會使用多種演算法(這被稱為整合模型)。最後,沒有任何模型是完美的——這被稱為沒有免費午餐定理。
模型訓練
當您在演算法中處理資料時,它們將學習新的洞察。這個過程包括幾個階段。首先,需要隨機化資料,以避免檢測到錯誤的模式。然後,在測試階段(包括70%到80%的資料),資料科學家調整模型(例如,得出正確的引數)。接下來,驗證階段涉及10%到20%的資料,並提供模型準確性的感覺。最後,為了對效能進行最終評估,會處理5%到10%的資料集。
佈署
AI的營運化可能是一個棘手的過程。已經出現了一類別新的工具和方法,稱為機器學習維運(MLOps),以幫助實作這一點。過程中的一個重要部分是監控AI系統,以確保結果準確。但是,像合規性和資料完整性這樣的領域也可能是關注點。
內容解密:
在佈署AI系統時,需要特別注意監控和維護。MLOps工具和方法可以幫助簡化這個過程,但仍需要對AI模型的效能和準確性進行持續的監控和評估。此外,還需要考慮合規性和資料完整性等問題,以確保AI系統的可靠性和安全性。
使用者介面設計
AI應用程式的使用者介面設計經常被忽視。這可能是一個重大的疏忽。由於AI可能很難理解和使用,因此通常需要一個易於使用的介面。
精確度衡量
由於AI是根據機率的,因此衡量模型的準確性非常重要。但這可能是一個具有挑戰性的過程。例如,假設您正在使用一個診斷多發性硬化症的AI模型,其準確率高達99%。聽起來不錯,是嗎?不一定。主要原因是多發性硬化症是一種罕見疾病,影響大約每10萬人中有90名患者。因此,如果一個模型總是表明一個人沒有這種疾病,它將在超過99%的時間內是正確的。
在這種情況下,可以透過其他方式來衡量模型的準確性。這可能包括檢視假陰性(表明一個人沒有疾病,但實際上他們患有疾病)或假陽性的機率。
內容解密:
衡量AI模型的準確性需要考慮多個因素,包括疾病的普遍性和模型的誤差率。使用多種指標,如精確率、召回率和F1分數,可以更全面地瞭解模型的效能。此外,還需要考慮資料集的多樣性和代表性,以確保模型的結果是可靠和有效的。
精確度也可能受到資料集型別的影響。在過度擬閤中,AI會記憶某些模式。非常高的準確率(例如超過90%)可能表明過度擬合。解決這個問題的一個好方法是收集更多樣化的資料。或者,您也可以使用不那麼複雜的演算法或演算法集。
另一個問題是欠擬合,其中輸入和輸出變數之間的準確性普遍不足。大多數情況下,模型太簡單,資料集不能反映真實世界。
一些AI模型的規模非常龐大。這對於那些專注於語言理解的模型來說尤其如此,例如Google Brain。它在模型中有驚人的1.6兆個引數。
內容解密:
大型AI模型的訓練需要大量的計算資源和資料。同時,也需要考慮模型的複雜性和可解釋性,以確保模型的結果是可靠和有效的。此外,還需要考慮模型的佈署和維護,以確保模型的效能和準確性在實際應用中得到保持。
人工智慧實作範例
開發人工智慧模型其實相當簡單,因為有許多強大且開放原始碼的工具可供使用。讓我們來看看一個簡單的模型建立範例,我們將使用線性迴歸公式來預測收入,依據是廣告支出。
使用scikit-learn平台
對於這個範例,scikit-learn是一個很好的選擇,它支援多種演算法,包括支援向量機(SVM)和隨機森林。你不需要從頭開始撰寫這些演算法,只要使用幾行指令即可。
下載scikit-learn
下載scikit-learn的一個好方法是使用Anaconda,它包含了許多有用的工具,如NumPy、pandas和Jupyter Notebook。透過Jupyter,你可以在網頁瀏覽器中建立模型筆記本,而使用的語言是Python,這是人工智慧和機器學習中最常用的語言。Jupyter的運作方式是根據一系列的儲存格,你可以在這些儲存格中輸入指令,然後按下Shift + Enter來執行。
程式碼實作
首先,我們匯入必要的模組:
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn import linear_model
pandas允許我們處理資料表,並且我們使用pd作為變數名稱,以便在程式碼中參照。numpy包含了處理陣列的函式。matplotlib.pyplot和%matplotlib inline使得我們能夠使用圖表和視覺化工具。sklearn.linear_model提供了線性迴歸模型的函式。
接下來,我們讀取資料並建立表格和
df = pd.read_csv(r"advertising.csv")
df
plt.scatter(df.advertising, df.revenues)
內容解密:
df = pd.read_csv(r"advertising.csv"):讀取名為advertising.csv的資料檔案,該檔案以逗號分隔值(CSV)格式儲存。df:顯示資料表。plt.scatter(df.advertising, df.revenues):建立一個散點圖,展示廣告支出和收入之間的關係。
資料清理與格式調整
然而,我們的資料集存在問題。在表格中,第3項的收入為空值(NaN)。由於scikit-learn的模型要求所有欄位都必須是數字,因此我們需要處理這個問題。我們可以選擇填補缺失值或刪除該行資料。這裡,我們選擇刪除:
df = df.dropna(how="any")
接下來,我們需要調整資料格式,將廣告支出轉換為特徵矩陣(具有兩個維度),並將收入轉換為目標向量(一欄資料):
advertising = df.iloc[:, 0].values.reshape(-1,1)
revenues = df.iloc[:, 1].values.reshape(-1,1)
內容解密:
advertising = df.iloc[:, 0].values.reshape(-1,1):將廣告支出資料轉換為特徵矩陣。revenues = df.iloc[:, 1].values.reshape(-1,1):將收入資料轉換為目標向量。
建立線性迴歸模型
然後,我們建立線性迴歸模型:
regmodel = linear_model.LinearRegression()
regmodel.fit(advertising, revenues)
revenues_forecast = regmodel.predict(advertising)
內容解密:
regmodel = linear_model.LinearRegression():建立線性迴歸模型物件。regmodel.fit(advertising, revenues):使用廣告支出和收入資料訓練模型。revenues_forecast = regmodel.predict(advertising):利用訓練好的模型預測收入。
圖表化最佳擬合線
我們可以使用以下程式碼來繪製最佳擬合線:
plt.scatter(advertising, revenues)
plt.plot(advertising, revenues_forecast, color='red')
plt.show()
內容解密:
plt.scatter(advertising, revenues):建立廣告支出和收入的散點圖。plt.plot(advertising, revenues_forecast, color='red'):在散點圖上繪製最佳擬合線(紅色)。plt.show():顯示圖表。
評估模型準確度
最後,我們可以評估模型的準確度:
print(regmodel.score(advertising, revenues))
這裡使用的是R平方指標,結果為0.897,表示89.7%的收入預測可以被模型解釋。
IBM Z上的AI應用
IBM長期投資於人工智慧領域,其中一個著名的創新是Deep Blue,它在1996年擊敗了世界象棋冠軍Garry Kasparov。隨後,IBM發展了Watson平台,並在2011年的電視競賽節目《危險邊緣》中獲勝。之後,IBM利用Watson平台幫助各行業的企業。
IBM也在其大型主機上整合了多種AI工具和系統,包括TensorFlow、Open Neural Network Exchange(ONNX)、PyTorch、scikit-learn等。IBM的策略是允許客戶在他們選擇的平台上建立和訓練模型,然後利用ONNX將模型輕鬆轉移到Z平台進行佈署。這使得AI能夠用於交易流程,從而實作即時分析,同時減少敏感企業資料的移動,提高安全性和治理能力。
此圖示說明瞭IBM Z在AI基礎設施中的角色
@startuml
skinparam backgroundColor #FEFEFE
skinparam defaultTextAlignment center
skinparam rectangleBackgroundColor #F5F5F5
skinparam rectangleBorderColor #333333
skinparam arrowColor #333333
title 此圖示說明瞭IBM Z在AI基礎設施中的角色
rectangle "建立/訓練模型" as node1
rectangle "佈署模型" as node2
rectangle "即時分析與交易處理" as node3
rectangle "提升安全性與治理" as node4
node1 --> node2
node2 --> node3
node3 --> node4
@enduml
圖示內容解密:
- 客戶平台:客戶可以在他們選擇的平台上建立和訓練AI模型。
- ONNX格式轉換:利用ONNX將訓練好的模型轉換為標準格式,以便於在不同平台間轉移。
- IBM Z平台:將轉換好的模型佈署到IBM Z平台,利用其高效能和安全性進行即時分析與交易處理。
- 企業應用:在企業環境中應用AI技術,提升營運效率和決策能力。
- 提升安全性與治理:透過減少資料移動和使用IBM Z的安全特性,提升企業資料的安全性和治理能力。
人工智慧在大型主機上的應用與未來趨勢
前言
大型主機(Mainframe)一直是企業運作的核心,承載著大量關鍵業務系統。隨著人工智慧(AI)技術的進步,將AI融入大型主機已成為提升效率、降低成本的重要途徑。本文將探討AI在大型主機環境中的應用,並分析其未來發展趨勢。
AI在大型主機上的挑戰與解決方案
在將AI模型整合至應用程式的過程中,企業面臨諸多挑戰,如交易效能下降、系統複雜度增加等。IBM的一位客戶——一家銀行——曾試圖在其信用卡交易授權過程中佈署AI系統以偵測詐欺行為。最初,該銀行將AI系統佈署在統一推理平台上,但這導致了諸多問題,如交易超時、詐欺偵測效果降低等。後來,該銀行將模型遷移到Z大型主機上,結果顯示回應時間穩定在1至2毫秒之間,不僅滿足了銀行的嚴格服務水平協定(SLAs),還將每秒交易量提高了十倍。
AIOps:人工智慧在IT維運中的應用
AIOps(Artificial Intelligence for IT Operations)是Gartner於2017年提出的一個新概念,旨在透過AI和機器學習(ML)演算法對大量資訊進行即時分析,從而提升IT維運效率。AIOps的主要功能包括異常偵測、持續改進、根本原因分析和預測性監控。
異常偵測與預測性監控
AIOps能夠快速識別系統效能問題或潛在的網路安全漏洞,並自動修復部分問題。例如,Dynatrace的AIOps工具能夠深入分析複雜的CICS交易伺服器系統、IMS網路服務、LPARs以及IBM MQ的追蹤資料,並提供無需組態的根本原因分析模組。
成功實施AIOps的關鍵
要成功實施AIOps,需要採取有紀律的方法。首先,從特定的使用案例開始,如異常偵測,並輸入歷史資料以驗證AIOps的價值。其次,逐漸採用AIOps工具,以確保員工能夠學習並適應新的流程,避免因突然的重大變革而引起的混亂。
機器人流程自動化與低程式碼/無程式碼系統
RPA:企業自動化的新寵兒
機器人流程自動化(RPA)技術正迅速成長,根據IDC的研究,RPA的支出預計將從2020年的170億美元增長到2024年的300億美元。其中,UiPath是RPA領域的領軍企業,其2021年的收入增長超過60%,年度經常性收入(ARR)達到6.53億美元。
UiPath的成功故事
UiPath的成功並非一蹴而就。2015年,該公司曾瀕臨破產,但創始人兼CEO Daniel Dines重新調整了公司的發展方向,採用電腦視覺等技術來改善自動化流程,並推出低程式碼系統,使非程式設計師也能開發自動化機器人。
RPA與大型主機的結合
許多早期採用RPA的客戶都擁有大型主機環境。RPA技術有效地提升了這些客戶的系統效能並降低了成本。然而,這種自動化仍處於初期階段。未來,低程式碼和無程式碼技術可能會對RPA產生重大影響,從而進一步推動大型主機的現代化。
隨著AI、AIOps和RPA技術的不斷進步,大型主機將繼續在企業運作中扮演核心角色。這些技術不僅能夠提升大型主機的效能和安全性,還能夠幫助企業降低營運成本、提高業務敏捷性。因此,企業應積極探索這些新技術,以實作大型主機的現代化和業務創新。