{"id":195,"date":"2018-08-01T23:26:53","date_gmt":"2018-08-01T22:26:53","guid":{"rendered":"https:\/\/teatronika.org\/?p=195"},"modified":"2018-08-05T10:08:10","modified_gmt":"2018-08-05T09:08:10","slug":"inteligencia-artificial-y-juegos-de-ordenador","status":"publish","type":"post","link":"https:\/\/teatronika.org\/ca\/2018\/08\/01\/inteligencia-artificial-y-juegos-de-ordenador\/","title":{"rendered":"Inteligencia Artificial y Juegos de Ordenador"},"content":{"rendered":"<p class=\"p2\"><span class=\"s1\">A medio camino entre entornos rob\u00f3ticos sint\u00e9ticos, simulaciones de agentes y la realidad, tenemos los juegos de ordenador: perfectos escenarios de testeo para inteligencias artificiales.<\/span><\/p>\n<p class=\"p2\"><span class=\"s1\">OpenAI est\u00e1 preparando el programa que controlar\u00e1 hasta 5 agentes contra 5 jugadores profesionales humanos en el complejo juego Dota2, un juego en el que el objetivo es destruir y conquistar el castillo del equipo oponente (<a href=\"https:\/\/blog.openai.com\/openai-five-benchmark\/\">link<\/a>). OpenAI bot ya ha demostrado superioridad contra jugadores humanos en el 1 contra 1 Dota2 con juego restringido (<a href=\"https:\/\/blog.openai.com\/more-on-dota-2\/\">link<\/a>). El escenario multi jugador no es trivial y esto se debe a que cuando aprendemos de percepciones que incluyen comportamientos de otros agentes, no podemos garantizar la convergencia de los algoritmos de aprendizaje que tienen que tratar con entornos no estacionarios.<\/span><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-208 size-large\" src=\"https:\/\/teatronika.org\/wp-content\/uploads\/2018\/08\/AI-Games-Examples-1024x689.jpg\" alt=\"\" width=\"525\" height=\"353\" srcset=\"https:\/\/teatronika.org\/wp-content\/uploads\/2018\/08\/AI-Games-Examples-1024x689.jpg 1024w, https:\/\/teatronika.org\/wp-content\/uploads\/2018\/08\/AI-Games-Examples-300x202.jpg 300w, https:\/\/teatronika.org\/wp-content\/uploads\/2018\/08\/AI-Games-Examples-768x517.jpg 768w, https:\/\/teatronika.org\/wp-content\/uploads\/2018\/08\/AI-Games-Examples.jpg 1756w\" sizes=\"auto, (max-width: 525px) 100vw, 525px\" \/><\/p>\n<p><!--more--><\/p>\n<p class=\"p2\"><span class=\"s1\">Deep Mind tambi\u00e9n se ha ocupado del juego multi-jugador en un art\u00edculo publicado recientemente (<a href=\"https:\/\/arxiv.org\/abs\/1807.01281\">link<\/a>) en el que un programa alcanza un nivel super-humano en el juego &#8220;Quake III Arena Capture the Flag&#8221; en escenarios 2 vs. 2\u00a0 en los cuales los equipos deben capturar la bandera del oponente y traerla de vuelta a la base.<\/span><\/p>\n<p class=\"p2\"><span class=\"s1\">Es sorprendente ver c\u00f3mo en los a\u00f1os 90 se utiliz\u00f3 una red neural de Aprendizaje por Refuerzo (Reinforcement Learning) para aprender a jugar a Backgammon: TD-Gammon (<a href=\"https:\/\/en.wikipedia.org\/wiki\/TD-Gammon\">link<\/a>). 25 a\u00f1os despu\u00e9s, los juegos cl\u00e1sicos de Atari de los a\u00f1os 80 fueron abordados con \u00e9xito por Google Deep Mind con su algoritmo Deep Reforming Learning (DQN) que logr\u00f3 un rendimiento humano y s\u00faper humano en el 60% del los juegos (<a href=\"https:\/\/www.nature.com\/articles\/nature14236\">link<\/a>). En 15% de los juegos, el algoritmo DQN tuvo serias dificultades principalmente debido a la planificaci\u00f3n requerida a largo plazo, como en el juego Montezuma Revenge, donde DQN logr\u00f3 0 puntos. La raz\u00f3n principal de esta falla es que las recompensas muy distantes no pueden lograrse mediante la exploraci\u00f3n aleatoria inicial de los algoritmos de Aprendizaje por Refuerzo.\u00a0<\/span><span class=\"s1\">Recientemente OpenAI public\u00f3 muy buenos resultados logrados en Montezuma aprendiendo de juego humano (<a href=\"https:\/\/blog.openai.com\/learning-montezumas-revenge-from-a-single-demonstration\/\">link<\/a>).<\/span><\/p>\n<p class=\"p2\"><span class=\"s1\">Curiosamente, la versi\u00f3n no determinista de PacMan tambi\u00e9n de Atari (MsPac Man aquella en la que los fantasmas toman una acci\u00f3n aleatoria cuando est\u00e1n cerca de las bifurcaciones) solo se ha resuelto recientemente mediante un enfoque que descompone la funci\u00f3n de recompensa en diferentes componentes (<a href=\"https:\/\/www.microsoft.com\/en-us\/research\/blog\/hybrid-reward-architecture-achieve-super-human-ms-pac-man-performance\/\">link<\/a>).<\/span><\/p>\n<p>Deep Mind tambi\u00e9n ha demostrado la superioridad de un programa, Alpha Go y Alpha Go Zero (aprendiendo desde cero sin usar juego humano, <a href=\"http:\/\/www.nature.com\/articles\/nature24270\">link<\/a>) en el antiguo juego de GO. Alpha Go Zero tambi\u00e9n aprendi\u00f3 a jugar al ajedrez mejor que los humanos. Es interesante analizar c\u00f3mo Alpha Go Zero usa diferentes aperturas durante el curso del aprendizaje, lo que demuestra que a veces la cultura humana asigna valor a las aperturas de una manera sesgada por los humanos.<\/p>\n<p>Los logros cient\u00edficos de todos estos algoritmos est\u00e1n en debate (para una discusi\u00f3n en el campo de GO, ver <a href=\"https:\/\/medium.com\/@josecamachocollados\/is-alphazero-really-acientific-breakthrough-in-ai-bf66ae1c84f2\">link<\/a>) y nosotros todav\u00eda necesitamos saber las contribuciones reales que pueden aportar a la sociedad. Una de las razones principales de este debate es que los c\u00e1lculos necesarios para lograrlos aumentan exponencialmente (consulta el art\u00edculo de OpenAI, ver <a href=\"https:\/\/blog.openai.com\/ai-and-compute\/\">link<\/a>).<\/p>\n<p>Para una revisi\u00f3n hist\u00f3rica de la Inteligencia Artificial aplicada a juegos, vea la p\u00e1gina de wikipedia: <a href=\"https:\/\/en.wikipedia.org\/wiki\/Artificial_intelligence_in_video_games\">link<\/a>\u00a0y el reciente libro Artificial Intelligence and Games (2018 , ver <a href=\"http:\/\/gameaibook.org\/\">link<\/a>).<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A medio camino entre entornos rob\u00f3ticos sint\u00e9ticos, simulaciones de agentes y la realidad, tenemos los juegos de ordenador: perfectos escenarios de testeo para inteligencias artificiales. OpenAI est\u00e1 preparando el programa que controlar\u00e1 hasta 5 agentes contra 5 jugadores profesionales humanos en el complejo juego Dota2, un juego en el que el objetivo es destruir y &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/teatronika.org\/ca\/2018\/08\/01\/inteligencia-artificial-y-juegos-de-ordenador\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;Inteligencia Artificial y Juegos de Ordenador&#8221;<\/span><\/a><\/p>\n","protected":false},"author":9,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-195","post","type-post","status-publish","format-standard","hentry","category-sin-categoria"],"acf":[],"_links":{"self":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/195","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/comments?post=195"}],"version-history":[{"count":9,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/195\/revisions"}],"predecessor-version":[{"id":210,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/195\/revisions\/210"}],"wp:attachment":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/media?parent=195"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/categories?post=195"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/tags?post=195"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}