{"id":366,"date":"2019-11-02T16:16:18","date_gmt":"2019-11-02T15:16:18","guid":{"rendered":"https:\/\/teatronika.org\/en\/?p=366"},"modified":"2019-11-02T16:16:42","modified_gmt":"2019-11-02T15:16:42","slug":"neural-network-storytelling","status":"publish","type":"post","link":"https:\/\/teatronika.org\/ca\/2019\/11\/02\/neural-network-storytelling\/","title":{"rendered":"Redes Neuronales que inventan historias"},"content":{"rendered":"<p>Tal vez hab\u00e9is oido hablar de\u00a0 GPT2 y su comunicado de prensa generado autom\u00e1ticamente sobre unos <a href=\"https:\/\/openai.com\/blog\/better-language-models\/#sample1\">Unicornios encontrados<\/a>. Desde que lo descubrimos hace tiempo que queremos hacer una publicaci\u00f3n sobre redes neuronales de generaci\u00f3n de texto como GPT2.<\/p>\n<p>Despu\u00e9s de una <a href=\"http:\/\/teatronika.org\/en\/2018\/09\/14\/conversaciones-con-una-i-a\/\">publicaci\u00f3n anterior<\/a> sobre el tema, creemos que esta podr\u00eda ser la pr\u00f3xima herramienta de Teatronika para la improvisaci\u00f3n en escena de robots inventado historias. Y para los esc\u00e9ptico, echad un vistazo a lo que GPT2 puede hacer en su versi\u00f3n en l\u00ednea <a href=\"http:\/\/talktotransformer.com\">talktotransformer.com<\/a>. Simplemente siga el enlace y escribe el principio de una historia. Por ejemplo, cuando introducimos las dos frases:<\/p>\n<p><span style=\"color: #008000\">\u201cTeatronika es un proyecto que intenta acercar la rob\u00f3tica a las artes. Teatronika presenta performances en las que los robots son los \u00fanicos actores &#8230; &#8220;<\/span><\/p>\n<p>La generaci\u00f3n GPT2 continu\u00f3 (<strong><span style=\"color: #ff0000\">repito que nosotros no hemos escrito esto<\/span><\/strong>, el texto se gener\u00f3 autom\u00e1ticamente presionando un bot\u00f3n:<\/p>\n<p>As\u00ed que lo dejamos en:<span style=\"color: #008000\"> &#8220;&#8230; son los \u00fanicos actores&#8221;<\/span> y GPT2 continua <span style=\"color: #008080\">&#8220;en la historia, en una variedad de formatos, incluso en el escenario. Nuestro programa fue un experimento para reunir a las personas para jugar con las computadoras y experimentar algo de la vida tal como sucedi\u00f3 realmente al usar las herramientas f\u00edsicas.<\/span><\/p>\n<p><span style=\"color: #008080\">\u00bfCu\u00e1l es la idea detr\u00e1s de Teatronika?<\/span><\/p>\n<p><span style=\"color: #008080\">La idea es acercarnos a robots e inteligencia artificial. Para encontrar cosas que necesitamos saber en un nivel b\u00e1sico (o, si lo prefiere, saber sobre nosotros al comprender nuestros comportamientos) y tambi\u00e9n, c\u00f3mo trabajar juntos y crear una cultura de colaboraci\u00f3n.<\/span><\/p>\n<p><span style=\"color: #008080\">\u00bfC\u00f3mo te has inspirado con esta idea en los \u00faltimos a\u00f1os? \u00bfQu\u00e9 tecnolog\u00edas o eventos han influido en el proyecto en el que su organizaci\u00f3n ha estado involucrada \u00faltimamente?<\/span><\/p>\n<p><img decoding=\"async\" src=\"https:\/\/teatronika.org\/wp-content\/uploads\/2019\/11\/TeatronikaTalkToTransformer-1024x824.png\" \/><\/p>\n<p>Un poco de contexto <a href=\"https:\/\/openai.com\/blog\/better-language-models\/\">GPT2 es un<\/a> &#8220;modelo de lenguaje no supervisado a gran escala que genera p\u00e1rrafos de texto coherentes, logra un rendimiento de vanguardia en muchos puntos de referencia como en el modelado de idiomas, en la comprensi\u00f3n de lectura rudimentaria, traducci\u00f3n autom\u00e1tica, respuesta a preguntas y resumen, todo sin estar entrenado espec\u00edficamente en una \u00fanica tarea &#8221; (de la web de OpenAI). En este<a href=\"https:\/\/towardsdatascience.com\/examining-the-transformer-architecture-part-1-the-openai-gpt-2-controversy-feceda4363bb\"> art\u00edculo de Medium<\/a> encontrar\u00e9is m\u00e1s detalles.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Tal vez hab\u00e9is oido hablar de\u00a0 GPT2 y su comunicado de prensa generado autom\u00e1ticamente sobre unos Unicornios encontrados. Desde que lo descubrimos hace tiempo que queremos hacer una publicaci\u00f3n sobre redes neuronales de generaci\u00f3n de texto como GPT2. Despu\u00e9s de una publicaci\u00f3n anterior sobre el tema, creemos que esta podr\u00eda ser la pr\u00f3xima herramienta de &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/teatronika.org\/ca\/2019\/11\/02\/neural-network-storytelling\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;Redes Neuronales que inventan historias&#8221;<\/span><\/a><\/p>\n","protected":false},"author":9,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-366","post","type-post","status-publish","format-standard","hentry","category-sin-categoria"],"acf":[],"_links":{"self":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/366","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/comments?post=366"}],"version-history":[{"count":5,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/366\/revisions"}],"predecessor-version":[{"id":373,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/posts\/366\/revisions\/373"}],"wp:attachment":[{"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/media?parent=366"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/categories?post=366"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/teatronika.org\/ca\/wp-json\/wp\/v2\/tags?post=366"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}