En la carrera por el desarrollo de inteligencia artificial (IA), los gigantes tecnológicos de Estados Unidos están cerrando el año con un nuevo impulso.

OpenAI presentó su nuevo modelo de chatbot, GPT-4 TurboGoogle anunció la integración deIA generativa a su buscador en inglés, español y portugués disponible en varios países de América Latina. Y Elon Musk entró a la contienda con su chatbot Grok, que será integrado a X (antes Twitter).

Todo ha sido anunciado a inicios de noviembre y luego de un año cargado de nuevas apuestas por parte de las firmas estadounidenses.

Musk asegura que su modelo de IA, que aún está en una versión de prueba para algunos usuarios, será más asertivo e incluso desenfadado, pues es capaz de hacer bromas, algo en lo que no se destacan los otros modelos.

Pero uno de los mayores avances presentados este mes fueron los llamados “tokens” de GPT-4 Turbo, que son las unidades de información (palabras, signos y unidades de datos): su nueva versión eleva exponencialmente la capacidad de información que puede procesar.

GPT-4 Turbo y sus 128k

En su conferencia para desarrolladores del pasado 6 de noviembre, el director de OpenAI, Sam Altman, presentó el nuevo GPT-Turbo con los 128.000 tokens de procesamiento.

Los tokens son unidades mínimas de procesamiento en los modelos de IA. Por ejemplo, la oración «Hola, ¿cómo estás?» tiene seis tokens: «Hola», «,», «¿», «cómo», «estás», y «?».

Tener una capacidad de 128.000 tokens implica que el chatbot o sus herramientas integradas a su modelo pueden recibir una instrucción con el texto equivalente de 300 páginas. Eso es exponencialmente superior a los 4.000-16.000 tokens que tienen las versiones anteriores, como el GPT-3.5 de uso gratuito.

ChatGPT no conoce 20% del léxico español y comete errores en el 80% restante

Datos de OpenAI -la empresa creadora- indican que cada semana cien millones de personas usan este chatbot para hacer tareas relacionadas con el lenguaje. «Quizás ChatGPT no sea hoy en día tan sabio como aparenta», dicen expertos

Desde que llegó al mercado hace un año, ChatGPT,una inteligencia artificial capaz de crear contenidos originalesy tareas relacionadas con la lengua, se ha convertido en una herramienta de enorme popularidad. Ahora un estudio señala que desconoce 20% del léxico español y que comete errores en el 80% restante.

Según datos de OpenAI -la empresa creadora-, cada semana cien millones de personas usan este chatbot para hacer tareas relacionadas con el lenguaje.

La herramienta está entrenada para mantener conversaciones y generar textos. Y aunque puede producir respuestas que parecen plausibles, son completamente erróneas.

Para evaluar el rendimiento de ChatGPT y su capacidad real, un equipo de investigadores españoles ha desarrollado una aplicación, denominada ChatWord.Ésta permite evaluar el conocimiento léxico de ChatGPT en varios idiomas.

Para ello se usó como referencia las palabras recogidas en el diccionario de la Real Academia de la Lengua y las que aparecen en El Quijote de Miguel de Cervantes.

El estudio reveló que de las más de 90.000 palabras incluidas en el diccionario de la Real Academia de la Lengua, el modelo ChatGPT3.5turbo desconoce aproximadamente el 20%, es decir, unas 18.000 palabras.

Además, del 80% restante de las palabras del diccionario y del 90% de las palabras del Quijote, ChatGPT cometió errores en cerca de 5% de los términos.

El pobre conocimiento de ChatGPT

El estudio recuerda que un hispanohablante reconoce 30.000 palabras de media. Es decir, casi un tercio del léxico español, un dato que puede parecer pobre comparado con el de una máquina, advierten los autores.

Pero «como pasa muchas veces con los sistemas de inteligencia artificial, no es oro todo lo que reluce. Y al analizar los significados que da ChatGPT de las palabras,vemos que hay un porcentaje no despreciable en que el sentido que señala es incorrecto«, explica Javier Conde, coautor del trabajo.

«QUIZÁS CHATGPT NO SEA HOY EN DÍA TAN SABIO COMO APARENTA», AÑADE.

El estudio recuerda que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), basados en inteligencia artificial y diseñados para procesar y comprender lenguaje natural en una escala enorme -como ChatGPT- no usan palabras que no conocen.

Pedro Reviriego, también coautor de la investigación, considera que el dato es preocupante. Señala que si estos sistemas solo usan las palabras que conocen, resulta «muy factible un escenario en que el contenido recién generado tenga un número cada vez menor de palabras distintas», y de escasa riqueza léxica, avisa.

La aplicación ChatWords es un sistema de acceso público, diseñada para ser fácil de usar y ampliar.

Los investigadores quieren evaluar otros idiomas y LLM. Así comprenderán mejor el conocimiento léxico que tienen las herramientas de inteligencia artificial. También sabrán cómo evoluciona a medida que aparecen nuevas versiones y herramientas.

GPT-4 Turbo puede procesar el equivalente a 300 páginas de información en una sola instrucción.

En tareas simples, como pedirle al chatbot un resumen de un documento, el usuario puede darle a “leer” al chatbot mucho más texto que antes. Pero las nuevas capacidades tienen un especial impacto en empresas que ya están usando IA y que requieren procesar gran cantidad de información en una sola instrucción.

La empresa también está implementando la capacidad de crear «agentes» personalizados, llamados «GPT», capaces de manejar tareas específicas como asesoramiento en negociaciones comerciales, sugerencias para quitar manchas de la ropa, ayuda con la tarea y soporte técnico.

Los usuarios pueden crear su propio “robot” para tareas muy diversas sin necesidad de saber programar.

Los últimos movimientos de OpenAI deberían facilitar la creación de interfaces de IA para que las aplicaciones o sitios web «conversen» con los usuarios, dijo el analista principal de Insider Intelligence, Yory Wurmser, a la agencia AFP.

Búsqueda generativa con Google

Los usuarios de Google enArgentina, Brasil, Chile, Colombia, México, Perú y Uruguay son los primeros en América Latina que pueden ver, desde hace unos días, un nuevo menú al usar el buscador.

Se trata de información basada enExperiencia Generativa de Búsqueda (del inglés Search Generative Experience, SGE): “Ahora al hacer una consulta en el Buscador, verán un extracto generado por IA con información clave a considerar y con enlaces para profundizar más”, indicó Google en un comunicado.

Así, por ejemplo, en una consulta sobre quiénes son los principales representantes del cubismo, esta herramienta hace una lista de los principales pintores de esta corriente, un resumen de qué es el cubismo, imágenes de algunas obras y sugerencias de preguntas relacionadas.

Google ofrece una nueva herramienta con IA generativa en las búsquedas.

La herramienta de búsqueda con IA también permiteiniciar una conversación con el chatbot, como cuáles son las principales obras de Pablo Picasso, uno de los máximos exponentes del cubismo.

“Con los nuevos avances en IA generativa, nuevamente estamos reimaginando lo que puede hacer un motor de búsqueda”, destacó David Gasca, un directivo de Search Labs del buscador de Google, en la presentación de las búsquedas con SGE.

Con estas opciones, Google busca posicionarse frente a otros buscadores que ya incluyen IA, como Bing de Microsoft que se basa en el modelo GPT de OpenAI.

El sarcástico Grok

Elon Musk, el jefe de X (anteriormente Twitter), también lanzó hace unos días un chatbot llamado Grok, pero hasta ahora solo está disponible para usuarios seleccionados.

«En algunos aspectos importantes, es lo mejor que existe actualmente», aseguró Musk al indicar que a Grok “le encanta el sarcasmo» y respondía las preguntas con «un poco de humor».

El empresario aseguró también que da respuestas a «preguntas escabrosas que son rechazadas por la mayoría de los demás sistemas de inteligencia artificial».

En una demostración, se le pidió a Grok una guía paso a paso para producir cocaína. Enumeró información satírica en lugar de útil, combinada con sugerencias sarcásticas, antes de hacer una advertencia contra seguir adelante con la idea.

“Espero no te vueles a ti mismo” al cocinar la droga, “o que no seas arrestado”, bromeó.

Musk destacó el «humor» de Grok.

Sin embargo, los primeros signos sugieren que sufre problemas comunes en otras herramientas de IA.

Al ser preguntado sobre el juicio al gurú de las criptomonedas encarcelado Sam Bankman-Fried, le dijo al “querido humano” que preguntó que tenía “noticias jugosas” al respecto y dijo erróneamente que el jurado tardó ocho horas en emitir un veredicto de culpabilidad, cuando en realidad lo devolvió en menos de cinco.

Las herramientas de IA generativa como Grok han sido criticadas porincluir errores básicos en sus respuestas redactadas de una manera que las hace parecer muy acertadas.

La herramienta se encuentra actualmente en un formato de prueba, pero luego estará disponible para los suscriptores que pagan por el uso de X, pero también como una aplicación independiente.

Fuente: BBC

Dejar respuesta

Please enter your comment!
Please enter your name here