超越炒作:由了解AI「幻覺」到發掘「可信任AI」的投資機遇
有關人工智能的應用在過去半年變得多元化,由以大型LLM推動的不同「娛樂式」及「研究式」的應用,到以特定工序及場景為設計基礎的「代理式」AI,人工智能的發展似是走到下一個階段。
上兩個星期有關「人工智能」的熱門字眼,在香港而言自然是「AI幻覺」(AI Hallucination)。事實上,有關人工智能的應用在過去半年變得多元化,由以大型LLM推動的不同「娛樂式」及「研究式」的應用,到以特定工序及場景為設計基礎的「代理式」AI,人工智能的發展似是走到下一個階段。與此同時,上月一度傳出Open AI修改用戶協議,不再提供有關金融、投資、醫學等意見,經解釋後Open AI表示這其實一直是Open AI的立場,即人工智能不是取代專業意見,而是一個輔助的方式讓用戶可以更快找到相關的專業意見及服務。
無疑人工智能是一項最具變革性的技術,但其應用的激增也代表一些根本缺憾會直接影響我們的生活。有關研究生育及人口結構問題的學術文章,被「AI幻覺」污染對社會的影響相對有限 - 涉及的是研究者對學術研究的資料重視程度及把關能力;但假如在一些涉及性命財產的領域,例如醫學、投資、製造技術等,受到「AI幻覺」影響出現偏差,不論對社會大眾以及投資這些領域企業的家族辦公室,均會造成難以估計的損失。
AI幻覺與其成因 - 是結構問題還是個別例子?
從根本上說,「AI幻覺」並非AI系統擁有了意識或「看見」了不存在的東西。它是一個術語,用以描述AI模型(特別是生成式AI和大型語言模型LLM)產生了看似合理、語氣自信,但實際上完全錯誤、具有誤導性或純屬捏造的資訊。一個更準確的比喻是心理學上的「虛談症」(Confabulation)。這類似於一個記憶受損的人,當被問及一件他不記得的事情時,他並非「刻意說謊」,而是無意識地「編造」了一個聽起來合乎邏輯的故事來填補記憶的空白。
然而,這些錯誤對企業及投資者並非無關痛癢,例如Google及Meta的人工智能系統曾出現不同的「幻覺」,一度令市場對兩間科技巨擘的人工智能發展技術充滿質疑,變相令Google及Meta的人工智能發展及整體吸引力落後於其他企業。要理解AI幻覺的投資意涵,必須明白它為何發生。這並非傳統軟件中可以輕易修復的「程式錯誤」(Bug),而是當前AI架構的內在限制:
數據源頭的「原罪」: AI模型是通過「餵食」海量的互聯網數據來訓練的。如果這些基礎數據本身就存在偏見、錯誤或資訊不足(例如,關於特定主題的數據量過少),模型就會將這些缺陷學入其內在邏輯,並在生成內容時將其放大。
模型的內在限制: 當前的AI並非在「思考」或「理解」世界。它本質上是一台極其複雜的「機率預測機器」。它只是在根據其訓練數據,猜測哪一個詞最有可能出現在前一個詞之後。它並不具備判斷這句話是否為「客觀事實」的能力,也缺乏對物理世界和常識的「實感」。
提示的模糊性: 當用戶提出的問題(提示)含糊不清、過於復雜或具有引導性時,AI為了「盡力回答」,反而更容易啟動其「填補空白」的機制,從而產生幻覺。
因此,投資者在進行盡職審查時,應警惕「幻覺」這個詞本身的誤導性,例如在評估一家AI初創公司時,應避免使用這個模糊術語,轉而採用更精確的提問:「你們的系統產生『無事實根據輸出』(Ungrounded content)的機率是多少?你們如何將模型的輸出『錨定』(ground) 在可驗證的數據源上?」這將迫使創始團隊從公關辭令轉向嚴肅的技術架構討論。
跨行業風險評估:AI「失實」對投資者的代價
正如前述,AI幻覺的風險並非均等,其嚴重性取決於「數據可靠性」與「決策後果」,在金融、醫療和法律等高風險領域,幻覺的代價可能是災難性的。然而,這些領域正正是現時人工智能投資的數個熱門領域,而相關的問題會加劇對人工智能的「信任赤字」,造成整個行業及技術應用的估值風險。
現時人工智能市場出現一個資本基建投資與技術應用極不匹配的情況︰市場對AI基礎設施(如芯片、硬件)的投資已呈爆炸式增長,相關硬件供應商的收入預期大幅提升,但企業在日常營運中「實際採用」生成式AI的比例卻增長極為緩慢。其中一個主要原因,是企業對AI存在「信任赤字」。行業調查明確指出,阻礙AI採用的最大障礙是「對數據安全、質量和可用性的擔憂」,而AI幻覺正正是這些問題出現的結構原因。可以想像的是,假如AI代理的答案有高達20%的機率是錯誤的,任何理性的企業都不敢將其用於財務、法務或醫療等「關鍵任務」,甚至要額多可聘專業人士去處理相關問題及責任,自然不會採用上述產品。
然而,當前的AI熱潮中,許多公司的估值是建立在其承諾的巨大生產力提升之上。然而,當市場逐漸意識到AI幻覺帶來的真實且巨大的經濟損失時,估值模型必須被修正。因此,對AI公司的估值不能只看其「潛力」,還必須納入一個「幻覺風險折讓」。對於PE基金而言,這構成了嚴峻的運營風險。如果PE基金收購了一家公司,並寄望通過部署AI來提升利潤率,但AI的幻覺風險使其無法可靠地自動化流程,那麼預期的效率提升將無法實現,整個投資回報(ROI)的前提都將崩塌。
轉危為機:從「AI安全」中發掘「淘金工具2.0」
從負面的角度出發,AI幻覺這個價值數百億美元的問題;從正面的角度出發,AI幻覺卻成為一個這個價值數百億美元的機遇,一條數百億美元的全新投資賽道:「AI安全與可信任AI」。以下是Orientis可到的投資機會︰
數據的「營養標籤」— 數據溯源 (Data Provenance)
核心技術: 「數據溯源」(Data Provenance) 指的是建立一個清晰、不可篡改、可審計的記錄,用以追蹤數據的完整生命週期:從其原始來源、經歷了哪些轉換、被誰訪問,到最終如何被AI模型使用。
為何重要: 就像食品包裝上的「營養標籤」和成分表,數據溯源是建立AI信任的絕對基礎。對於金融、醫療和政府等受到嚴格監管的行業,合規團隊「必須」能夠在監管機構提問時,準確回溯AI的每一個決策是基於哪些數據做出的。
產業建議: 專注於為大型企業提供數據溯源管理、自動化驗證和合規報告的 B2B SaaS 平台。
AI的「剎車系統」— 檢索增強生成 (RAG) 與 AI 稽核
檢索增強生成 (RAG): 這是目前企業緩解AI幻覺最有效的技術手段之一。RAG (Retrieval-Augmented Generation)的工作原理是,不讓AI「憑空想像」答案,而是強迫它從一個「可信的、限定範圍的」知識庫,例如在醫學研究上限制使用醫學期刊、當地的醫學技術手冊、培訓守則等,從中檢索相關信息並「僅」基於這些被核實的資料來生成答案。
AI 稽核與 GRC: 隨著AI在企業中的普及,一個全新的「AI治理、風險與合規」(AI GRC) 市場正在快速形成,幫助企業自動化地審計和驗證AI模型的輸出,確保其準確性並符合監管法規。
產業建議: 對於VC,應關注提供高效 RAG 實施框架和優化工具的初創公司。對於PE和家族辦公室,為受監管行業提供 AI GRC 平台的SaaS公司是極具吸引力的投資項目。
AI的「免疫系統」— AI 防火牆與網絡安全
新的攻擊面: AI模型本身正成為網絡攻擊的新目標。威脅包括在訓練階段惡意投毒的「數據污染」(Data Poisoning),以及在運行時通過巧妙提問來欺騙模型的「提示注入」(Prompt Injection)。
AI 防火牆 (AI Firewalls): 這是一個新興且正快速爆發的市場。這些「防火牆」部署在AI模型和用戶之間,像免疫系統一樣,實時監測和攔截惡意提示、過濾有毒輸出、防止敏感數據洩露,並強制執行企業的安全護欄。
市場趨勢: AI安全領域的初創企業正在獲得大量融資,同時大型網絡安全公司正通過高價併購積極佈局,或通過企業投資培育這個生態。
產業建議: 對於VC客戶而言,這是高風險高回報的早期投資領域。應重點關注那些提供模型安全、威脅檢測和自動防禦的AI防火牆初創公司。
總而言之,Orientis認為未來投資人工智能的方向,應是由「通用」走向「領域專用模型」,並由「生成式AI」(Generative AI) 轉向「可驗證式AI」(Verifiable AI)。AI的革命最終不會由「最聰明」或「最富創意」的模型推動,而是由「最可信」、「最可靠」的模型推動。因此,數據溯源 (Data Provenance) 、RAG 框架、AI 稽核 (AI GRC) 和 AI 防火牆,將會是AI投資的下一個「藍海」。
#AI幻覺 #可信AI #AI安全 #AI投資 #科技投資 #藍海市場 #家族辦公室 #數據溯源 #RAG框架 #AIGRC #AI防火牆 #人工智能 #生成式AI #科技風險 #數位轉型


