万维百科粤语版

普遍玩遊戲

(由普遍玩遊戲跳轉過嚟)
跳去導覽 跳去搵嘢
一個正常人類會識得玩多種唔同嘅遊戲,而對普遍玩遊戲嘅研究目的旨在教 AI 做同樣嘅嘢。

瓣瓣掂玩遊戲粵拼faan6 faan6 dim6 waan2 jau4 hei3英文general game playingGGP),或者叫普遍玩遊戲,係人工智能(AI)上嘅一個課題,指思考點樣設計出能夠用嚟「普遍性」噉玩遊戲AI 程式:廿世紀尾嘅電子遊戲 AI 技術表明咗,要編寫出能夠玩某隻特定遊戲嘅 AI 程式並唔難[1][2];不過問題係,一路直至 2010 年代為止,玩遊戲嘅 AI 程式冚唪唥都係專化(specialized)嘅-即係每個程式都都淨係識一味玩死某一隻遊戲[3]

舉個例說明,好似係設計嚟捉圍棋嘅 AI 程式 AlphaGo 噉,AlphaGo 喺 2016 年勁到成功打低九段(即係最高等級)圍棋棋手,但除咗捉圍棋之外,AlphaGo 就乜嘢都唔識;噉係因為 AlphaGo 用嘅演算法唔具有普遍性(generality),淨係曉攞「玩緊嗰盤圍棋現時嘅狀態」做自己嘅輸入,唔會識得(例如)考慮「玩緊嗰盤象棋現時嘅狀態」,更加唔好話會識玩棋類之外嘅遊戲[4][5]

遊戲 AI 嘅極高專化性對 AI 研究嚟講係一個問題:理論上,AI 研究嘅終極目的係想創造出喺智能上同人無異嘅 AI 程式[6];而齋靠日常生活嘅觀察已經可知,一個智能正常嘅人類係能夠學識玩多隻唔同嘅遊戲嘅,所以如果學界想創造出响智能上同人無異嘅 AI 程式,必需要成功達致普遍玩遊戲。除此之外,普遍玩遊戲嘅技術亦都被指喺軍事遊戲製作等方面有實用價值[3]

抽象遊戲概念

睇埋:遊戲同埋博弈論

一個達到普遍玩遊戲嘅 AI 程式實要識得以任何遊戲嘅狀態做自己嘅輸入:最基本上,一個玩遊戲嘅 AI 程式要做嘅係攞「現時遊戲狀態做輸入」,並且以某啲類型嘅演算法計個輸出;一個達到普遍玩遊戲嘅 AI 程式就一定要能夠以任何遊戲嘅遊戲狀態做輸入,所以研究普遍玩遊戲嘅工作者第一步要做嘅係諗出一個抽象化嘅模型表示「遊戲」呢樣嘢,即係搵出一柞所有被視為「遊戲」嘅事物有嘅特性,並且以呢啲特性作為「個 AI 程式收到嘅輸入實會有嘅參數[3]。一般認為喺最抽象嘅層面睇,遊戲可以想像成由以下部份組成嘅數學物體:

  • 若干個遊戲狀態,例如以下係井字過三關嘅一啲可能遊戲狀態、
Tic-tac-toe-game-1.png
  • 若干個玩家(井字過三關有兩個玩家)、
  • 若干個可能選擇,而唔同玩家手上有嘅選擇可能唔同(井字過三關每個玩家可以揀霸邊個空位)、以及
  • 指定玩家選擇點樣影響遊戲狀態嘅規則(如果玩家霸咗某個空位,嗰個位就會變成「俾人霸咗」嘅狀態)

... 等等。可以想像馬可夫決策過程(Markov decision process):例如係以下呢幅圖當中嘅馬可夫決策過程噉;個過程模擬咗一個虛擬世界,個虛擬世界有三個狀態(),喺每一個狀態當中,玩家都有兩個可能嘅選擇()同埋相應嘅報償,而每個選擇有若干機會率會令到個世界變成另外一個狀態(由啲箭咀同箭咀側邊嘅數字表示)。呢一個模型可以好容易噉用電腦程式表達出嚟,可以攞嚟教電腦喺玩遊戲嗰陣做決策[7][8]

Markov Decision Process.svg

如果要用程式語言嚟表達上述嘅馬可夫決策過程嘅話,設計者可以用好似以下噉嘅一個矩陣(matrix)嚟表示唔同狀態之間轉化嘅機會率,當中每個橫行表示「如果喺呢個狀態揀咗呢個選擇,會去另外一個狀態嘅機會率」-喺狀態 揀咗 )嘅話,遊戲狀態會有 50% 機會變成 、50% 機會變成 ,如此類推[9]

齋用數字(冇咁易睇)嘅話:

遊戲描述語言

內文: 遊戲描述語言

睇埋

參考文獻

  1. Yannakakis, Geogios N (2012). "Game AI revisited" (PDF). Proceedings of the 9th Conference on Computing Frontiers: 285–292.
  2. Stanley, K. O., Bryant, B. D., & Miikkulainen, R. (2005). Evolving neural network agents in the NERO video game. Proceedings of the IEEE, 182-189.
  3. 3.0 3.1 3.2 Genesereth, M., Love, N., & Pell, B. (2005). General game playing: Overview of the AAAI competition (PDF). AI magazine, 26(2), 62-62.
  4. Allis, L. V. Searching for Solutions in Games and Artificial Intelligence. PhD thesis, Univ. Limburg, Maastricht, The Netherlands (1994).
  5. van den Herik, H., Uiterwijk, J. W. & van Rijswijck, J. Games solved: now and in the future. Artif. Intell. 134, 277–311 (2002).
  6. General intelligence (strong AI) is discussed in popular introductions to AI:
    • Kurzweil 1999 and Kurzweil 2005.
  7. Hugh Brendan McMahan (2006), Robust Planning in Domains with Stochastic Outcomes, Adversaries, and Partial Observability, CMU-CS-06-166, pp. 3–4
  8. Filar, J. & Vrieze, K. (1997). Competitive Markov Decision Processes. Springer-Verlag.
  9. Getting Started with Markov Decision Processes: Reinforcement Learning. Data Science.


本页面最后更新于2021-01-02 00:37,点击更新本页查看原网页

本站的所有资料包括但不限于文字、图片等全部转载于维基百科(wikipedia.org),遵循 维基百科:CC BY-SA 3.0协议

万维百科为维基百科爱好者建立的公益网站,旨在为中国大陆网民提供优质内容,因此对部分内容进行改编以符合中国大陆政策,如果您不接受,可以直接访问维基百科官方网站


顶部

如果本页面有数学、化学、物理等公式未正确显示,请使用火狐或者Safari浏览器