{"id":3439,"date":"2023-12-26T15:18:34","date_gmt":"2023-12-26T15:18:34","guid":{"rendered":"https:\/\/solodns.net\/lab9v3\/?p=7759"},"modified":"2024-08-29T20:11:24","modified_gmt":"2024-08-29T20:11:24","slug":"gemini-el-nuevo-y-mas-capaz-modelo-de-ia-de-google","status":"publish","type":"post","link":"https:\/\/lab9.co\/en\/gemini-el-nuevo-y-mas-capaz-modelo-de-ia-de-google\/","title":{"rendered":"GEMINI: el nuevo y m\u00e1s capaz modelo de IA de Google."},"content":{"rendered":"<p><strong>\u201cWelcome to the Gemini era\u201d<\/strong> es la frase con la que comienza su presentaci\u00f3n en Google DeepMind.&nbsp;<\/p>\n\n\n\n<p>La \u201cGemini era\u201d hace referencia a una nueva etapa de investigaci\u00f3n e innovaci\u00f3n que abre Google luego de casi 8 a\u00f1os apostando y estudiando a la IA generativa.&nbsp;<\/p>\n\n\n\n<p><strong>Sundar Pichai<\/strong>, director ejecutivo de Google y Alphabet, en una nota oficial de la compa\u00f1\u00eda declar\u00f3: <em>\u201cCasi ocho a\u00f1os despu\u00e9s de nuestro viaje como una empresa que da prioridad a la IA, el ritmo del progreso no hace m\u00e1s que acelerarse: millones de personas est\u00e1n utilizando la IA generativa en todos nuestros productos para hacer cosas que no pod\u00edan ni siquiera hace un a\u00f1o (\u2026). Al mismo tiempo, los desarrolladores est\u00e1n utilizando nuestros modelos e infraestructura para crear nuevas aplicaciones de IA generativa, y las empresas de todo el mundo est\u00e1n creciendo con nuestras herramientas de IA.\u201d<\/em><\/p>\n\n\n\n<p>Gemini da un nuevo paso en materia de Inteligencia Artificial, siendo el modelo m\u00e1s capaz y general, con tecnolog\u00eda de \u00faltima generaci\u00f3n. Su primera versi\u00f3n, la 1.0, est\u00e1 optimizada para tres tama\u00f1os distintos:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><em>Gemini Ultra:<\/em>&nbsp; modelo de mayor tama\u00f1o y capacidad para tareas muy complejas.<\/li>\n\n\n\n<li><em>Gemini Pro:<\/em> modelo ideal para escalar en una amplia gama de tareas.<\/li>\n\n\n\n<li><em>Gemini Nano:<\/em> modelo m\u00e1s eficiente para tareas en dispositivos m\u00f3viles.<\/li>\n<\/ol>\n\n\n\n<h2 class=\"wp-block-heading\">Amplia capacidad de comprensi\u00f3n.<\/h2>\n\n\n\n<p>Gemini 1.0 fue dise\u00f1ado y entrenado para reconocer y comprender texto, im\u00e1genes, audio y m\u00e1s al mismo tiempo, por lo que entiende mejor la informaci\u00f3n matizada y puede responder preguntas relacionadas con temas complicados. Esto lo hace especialmente bueno para explicar el razonamiento en materias complejas como matem\u00e1ticas y f\u00edsica.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Rendimiento nunca antes visto.<\/h2>\n\n\n\n<p>Gemini se someti\u00f3 a diversas evaluaciones para medir su rendimiento en una gran variedad de tareas: desde la comprensi\u00f3n de im\u00e1genes naturales, audio y video, hasta el razonamiento matem\u00e1tico. Es as\u00ed como Gemini Ultra supera los resultados actuales de lo \u00faltimo en tecnolog\u00eda en 30 de los 32 puntos de referencia acad\u00e9micos utilizados en la investigaci\u00f3n y el desarrollo de los grandes modelos de lenguaje (LLM: Large Language Models).<\/p>\n\n\n\n<p>Por otro lado, con una puntuaci\u00f3n del 90%, este nuevo modelo de lenguaje se posiciona como el primero en superar a los expertos humanos en MMLU (comprensi\u00f3n masiva de lenguajes multitarea), que utiliza como punto de referencia una combinaci\u00f3n de 57 materias en CTIM (o STEM por sus siglas en ingl\u00e9s). Esto le permite a Gemini poder responder con mayor precisi\u00f3n preguntas complejas.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lab9.co\/wp-content\/uploads\/2023\/12\/Captura-de-pantalla-2023-12-19-220409-854x1024.png\" alt=\"\" class=\"wp-image-7760\"\/><figcaption class=\"wp-element-caption\">Comparaci\u00f3n del rendimiento de Gemini frente a ChatGPT. Fuente: Google<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">La multimodalidad como rasgo distintivo.<\/h2>\n\n\n\n<p>Antes, para crear modelos multimodales, era necesario entrenar componentes por separado, cada uno destinado a diferentes modalidades, para luego unirlos e intentar imitar lo m\u00e1s posible cada funcionalidad.&nbsp;<\/p>\n\n\n\n<p>Gemini irrumpe esta regla, siendo un modelo de lenguaje dise\u00f1ado para ser nativamente multimodal, entrenado \u00edntegramente as\u00ed desde sus or\u00edgenes. Esto le permite ser mucho m\u00e1s veloz y m\u00e1s preciso frente a cualquier otro modelo de caracter\u00edsticas similares. Adem\u00e1s, posteriormente, se perfeccion\u00f3 con otros elementos multimodales adicionales a fin de poder comprender y razonar en todo tipo de entradas desde cero.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lab9.co\/wp-content\/uploads\/2023\/12\/Captura-de-pantalla-2023-12-19-212445-1024x360.png\" alt=\"\" class=\"wp-image-7761\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lab9.co\/wp-content\/uploads\/2023\/12\/Captura-de-pantalla-2023-12-19-212510-1024x387.png\" alt=\"\" class=\"wp-image-7762\"\/><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/lab9.co\/wp-content\/uploads\/2023\/12\/Captura-de-pantalla-2023-12-19-212531-1024x373.png\" alt=\"\" class=\"wp-image-7763\"\/><figcaption class=\"wp-element-caption\">Fuente: <a href=\"https:\/\/deepmind.google\/technologies\/gemini\/#hands-on\" target=\"_blank\" rel=\"noopener\">https:\/\/deepmind.google\/technologies\/gemini\/#hands-on<\/a>&nbsp;<\/figcaption><\/figure>\n\n\n\n<p>Gemini Ultra tambi\u00e9n logra una puntuaci\u00f3n r\u00e9cord del 59,4 % en MMMU (Massive Multi-discipline Multimodal Understanding), un nuevo punto de referencia dise\u00f1ado para evaluar modelos multimodales en tareas multidisciplinarias masivas que exigen conocimientos tem\u00e1ticos de nivel universitario y razonamiento deliberado.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">\u00bfCuando estar\u00e1 abierto al p\u00fablico?<\/h3>\n\n\n\n<p>A partir del 13 de diciembre, los desarrolladores y clientes empresariales ya pueden acceder a Gemini Pro a trav\u00e9s de la API de Gemini en Google AI Studio o Google Cloud Vertex AI.<\/p>\n\n\n\n<p>A principios del a\u00f1o entrante, ya estar\u00e1 abierta al p\u00fablico en general. Mientras tanto, a esperar\ud83d\ude05<\/p>\n\n\n\n<p>Si esta info te gust\u00f3, te invitamos a seguirnos en nuestras redes sociales para no perderte de las \u00faltimas novedades: <a href=\"https:\/\/www.instagram.com\/lab9.agencia\/?hl=es-la\" target=\"_blank\" rel=\"noopener\">Instagram<\/a>, <a href=\"https:\/\/www.facebook.com\/lab9.digital.agency\/\" target=\"_blank\" rel=\"noopener\">Facebook<\/a>, <a href=\"https:\/\/www.tiktok.com\/@lab9digital?is_from_webapp=1&amp;sender_device=pc\" target=\"_blank\" rel=\"noopener\">TikTok<\/a>&nbsp; and <a href=\"https:\/\/ar.linkedin.com\/company\/lab-9-agencia-digital\" target=\"_blank\" rel=\"noopener\">LinkedIn.<\/a><\/p>\n\n\n\n<p>Lab9 &#8211; Digital Agency.<\/p>","protected":false},"excerpt":{"rendered":"<p>\u201cWelcome to the Gemini era\u201d es la frase con la que comienza su presentaci\u00f3n en Google DeepMind.&nbsp; La \u201cGemini era\u201d hace referencia a una nueva etapa de investigaci\u00f3n e innovaci\u00f3n que abre Google luego de casi 8 a\u00f1os apostando y estudiando a la IA generativa.&nbsp; Sundar Pichai, director ejecutivo de Google y Alphabet, en una [&hellip;]<\/p>","protected":false},"author":12,"featured_media":3440,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[35,29],"tags":[],"class_list":["post-3439","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-consultoria","category-desarrollo"],"_links":{"self":[{"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/posts\/3439","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/users\/12"}],"replies":[{"embeddable":true,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/comments?post=3439"}],"version-history":[{"count":0,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/posts\/3439\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/media\/3440"}],"wp:attachment":[{"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/media?parent=3439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/categories?post=3439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/lab9.co\/en\/wp-json\/wp\/v2\/tags?post=3439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}