Mostrando entradas con la etiqueta Chat GPT. Mostrar todas las entradas
Mostrando entradas con la etiqueta Chat GPT. Mostrar todas las entradas

martes, 8 de abril de 2025

Chat GPT bajo la lupa: investigaciones indican que podría generar más aislamiento y dependencia emocional

Aquellos usuarios que dialogan con la IA durante un tiempo prolongado pueden sufrir efectos negativos en su bienestar psicosocial.

(Foto: Getty Images).

Según Brad Lightcap, director de operaciones de OpenAI, ChatGPT cuenta con 400 millones de usuarios semanales. En este sentido, se vuelve cada vez más necesario indagar qué efectos genera en el bienestar de las personas la interacción con esta Inteligencia Artificial. Así, OpenAI y MIT Media Lab realizaron dos estudios en conjunto y detectaron que así como estas charlas pueden ayudar a las personas a aliviar la soledad, también puede aumentar la dependencia emocional y el aislamiento social.

En los estudios se evaluaron, por un lado, los usos de la plataforma y, por el otro, el impacto en los usuarios. El primero, llevado a cabo por la misma OpenAI, creadora de ChatGPT -lo que podría denominarse una especie de "auditoría interna"-, incluyó el análisis de más de cuatro millones de conversaciones en busca de señales afectivas (es decir, indicadores de empatía, afecto o apoyo) y la encuesta a más de 4 mil usuarios sobre sus percepciones alrededor de ChatGPT.

Por otra parte, la segunda investigación realizada por el equipo de MIT Media Lab en colaboración con OpenAI, apuntó a revelar si existe una relación entre el uso de la plataforma y el bienestar emocional. Para ello, realizó un ensayo con casi mil participantes que utilizaron ChatGPT durante cuatro semanas y al menos cinco minutos por día. El objetivo era examinar si las características de la IA, como el tipo de voz y el tipo de conversación, podía afectar los estados psicosociales informados por los usuarios.

Desde el MIT Media Lab, se centraron principalmente en aspectos como la soledad, la interacción social con personas reales, la dependencia emocional de la IA y el uso problemático de ella. De esta manera, descubrieron que si bien los usuarios que utilizan ChatGPT con fines emocionales son solo un grupo, los participantes que confiaban más en esta IA y dialogaban con frecuencia con ella eran más propensos que otros a sentirse solos y tener más dependencia. A su vez, quienes interactúan con la IA en un tiempo breve sintieron un mayor bienestar.

Que la charla con ChatGPT genere efectos positivos y negativos varía también según si la conversación es de texto o de manera oral. Así, detallaron que las personas que se comunican por mensaje de texto con la IA muestran más señales afectivas que quienes tienen conversaciones habladas. En cuanto al tipo de voz, no hubo cambios significativos respecto a si la voz era atractiva o neutra.

Asimismo, aquellas conversaciones que incluían una mayor expresión de emociones tanto del usuario como del modelo de IA se asociaron con niveles más altos de soledad, pero con menor dependencia emocional y uso problemático. Por el contrario, las charlas no personales tendieron a aumentar la dependencia emocional.

Además, los investigadores encontraron diferencias en cómo los hombres y las mujeres responden al uso de ChatGPT. Después de usar el chatbot durante cuatro meses, ellas fueron menos propensas a socializar con personas que ellos. Mientras que los participantes que interactuaron con el modo de voz de la IA en un género que no era el suyo, reportaron niveles significativamente más altos de soledad y dependencia emocional hacia el final del experimento.

Una IA responsable para los humanos

"ChatGPT no está diseñado para reemplazar ni imitar las relaciones humanas, pero las personas pueden optar por usarlo de esa manera debido a su estilo conversacional y sus amplias capacidades", advierte OpenAI. En línea con lo que plantean estos estudios, el hecho de que las IAs sean grandes modelos de lenguaje hace que sea necesario investigar el impacto que tienen en los seres humanos.

No obstante, los autores reconocen sus limitaciones, por ejemplo que no fueron revisados aún por pares científicos o que se basan únicamente en ChatGPT. Es decir que los usuarios de otras plataformas de chatbots pueden tener experiencias distintas. Esto último cobra aún más importancia si se recuerda el caso del adolescente Sewell Setzer, que se suicidó tras enamorarse de una IA de la plataforma Character.AI.

(Fuente: Agencia de Noticias Científicas / UNQ)

martes, 21 de mayo de 2024

La inteligencia artificial en la literatura, ¿una amenaza a la creatividad?

En el ámbito literario, los nuevos avances tecnológicos generan fascinación, asombro y también temor porque la IA reemplace la escritura humana. 

Con la difusión masiva de los programas de Inteligencia Artificial (IA) se produjo un gran revuelo en el ámbito literario que implicó fascinación, asombro y también temor porque este nuevo avance tecnológico reemplace la escritura humana, este debate se vio acompañado por experimentos pioneros que, con la ayuda de la IA, crearon libros: como el caso reciente de la ganadora del premio más prestigioso de Japón y la obra de Jorge Carrión "Los cambios electromagnéticos", escrito con ChatGPT.

Como todo debate complejo, la controversia sobre el rol de la inteligencia artificial trae aparejadas posturas disímiles. Hay quienes se espantan ante su utilización y otros que exploran de manera lúdica la herramienta. En la vereda de quienes rechazan esta novedad hay, incluso, demandas a OpenAI, la empresa de inteligencia artificial responsable de Chat GPT.

Hace unos meses, un colectivo de 9.000 autores entre los que se encuentran Jonathan Franzen, John Grisham y George R.R. Martin, presentó una denuncia contra Open AI. La acusación fue haber utilizado sin consentimiento sus obras para entrenar sus programas de chatbots y ayudarlos generar textos creativos.

Otro ejemplo son las denuncias del novelista Paul G. Tremblay, autor de "La cabaña del fin del mundo", quien alegó que esta empresa había utilizado ilegalmente sus libros para entrenar al modelo de lenguaje subyacente a la herramienta de ChatGPT. Esta demanda fue desestimada en los tribunales de California bajo el argumento de que no se había demostrado una similitud sustancial entre sus obras y la producción de la inteligencia artificial.

La escritora Rie Kudan ganó el Premio Akutagwa, el más importante en Japón, por su novela "La torre de la simpatía de Tokio", la cual escribió con IA

En la vereda contraria, se ubica la escritora Rie Kudan, la ganadora del Premio Akutagwa, el galardón literario de Japón más prestigioso. Luego de la entrega, reconoció haber utilizado ChatGPT para la creación de su novela titulada "La torre de la simpatía de Tokio". Tras esta confesión, no se mostró arrepentida.

Al contrario, Kudan dijo que recurrió a ChatGPT con un propósito definido para su novela que consistió en "imitar la forma en que las palabras suaves y confusas distorsionan las ideas sobre la justicia". Y agregó: "En los últimos años, nos encontramos en una situación en la que las palabras se han expandido sin límite y han permitido interpretaciones ilimitadas", dijo Kudan después de su premio.

No hay dudas de que la utilización del lenguaje de Chat GPT, su eficacia para resolver textos en pocos segundos y su forma de procesar información llama poderosamente la atención. Nicolás Mavrakis, autor de los ensayos "Byung-Chul Han y lo político" y "Una historia de la noche y otras técnicas", y las novelas "El recurso humano" y "Sesiones en el desierto", esperaba poder pedirle al Chat GPT "alguna maravilla", en base a las experiencias o publicidades que había visto en redes. "Algo como un texto en prosa de seis mil caracteres donde, en el estilo de Jorge Luis Borges, un mono piensa sobre la vida mientras cabalga encima de un caballo hacia el horizonte", ejemplifica Mavrakis.

Sin embargo, cuenta que se encontró con "pastiches más bien toscos y previsibles de distintos fragmentos literarios de Borges. Sí me parecieron más simpáticas las aplicaciones de IA para sintetizar audios de WhatsApp en un texto breve. Con una brusquedad admirable, algunas se acercaban a la verdad: 'Entre erráticos reclamos dramáticos y enumeraciones de problemas personales sin solución, X pretende que le solucionen la vida", describe Mavrakis.

Nicolás Mavrakis: "La IA no destruye nada, sólo desnuda que hoy es posible reemplazar con máquinas tareas que las personas de carne y hueso ya estaban realizando de manera automatizada. Y esto no es ajeno al trabajo creativo"

El crítico cultural y novelista Jorge Carrión, autor de "Membrana" -una novela sobre IA- considera que Chat GPT es "una herramienta extraordinaria. Por supuesto va a provocar usos indebidos (entre los estudiantes, entre los investigadores a la hora de hacer resúmenes o de escribir artículos académicos), sobre todo si su uso no es acompañado de verificación y edición. Al igual que en el pasado desaparecieron los mecanógrafos o los taquígrafos, algunas profesiones vinculadas con la redacción, en efecto, podrían ser innecesarias", advierte el escritor.

Con la publicación de "Los campos electromagnéticos", un libro que aborda la potencia y los límites de la escritura algorítmica en 2023, Carrión descubrió que "era posible y legal firmar en coautoría con GPT-2 y GPT-3". En el nuevo texto escriben Jorge Carrión y Jorge Carrión Espejo, un chat GPT-2 creado por el autor y los ingenieros y artistas de Taller Estampa con tres tipos de "data set". Para que el algoritmo escriba como él, se realizó un proceso de refinamiento del sistema con los libros previos del autor.

"Ahora, tras el boom del ChatGPT, todo ha cambiado. Cada sistema es un mundo: en ChatGPT no puedes escribir 'al estilo de Borges', supongo que por las demandas, en cambio con Copilot sí puedes hacerlo", dice sobre la inteligencia artificial de Microsoft.

Uno de los fundamentos discursivos más difundidos es el de la "intertextualidad", postulado por el teórico ruso Mijail Bajtin. Implica que todo texto se construye como un mosaico de citas y que los textos son absorciones y transformaciones de otros ya existentes. Con ChatGPT, esto aparece crudamente y plantea nuevamente la pregunta acerca de qué manera entra en tensión la creatividad cuando se trata de producciones escritas realizadas por inteligencia artificial. Para Carrión, se trata de "una tensión necesaria. Hablamos de muchos millones de dólares y del futuro de todas las industrias creativas: no hay otro camino que el de la regulación".

Por su parte, Mavrakis señala: "La IA no destruye nada, solo desnuda que hoy es posible reemplazar con máquinas tareas que las personas de carne y hueso ya estaban realizando de manera automatizada, incluso si no lo sabían. Y esto no es ajeno al trabajo creativo".

El autor de "Sesiones en el desierto" pone sobre la mesa el caso de Hollywood: "Los guionistas percibieron de inmediato que cualquier IA podría resolver en pocos segundos las mismas historias acartonadas, tabuladas, calculadas y prediseñadas para distintos nichos de audiencias que ellos solo pueden resolver en pocas semanas". En este sentido, la IA vendría a volver más gráfico cómo algo que se suponía creativo, no lo ha sido nunca. En palabras de Mavrakis: "Es trabajo automatizado apenas teñido de arte".

Para verificar esta hipótesis, el escritor propone "mirar la mesa de novedades de cualquier librería para comprobarlo". Ante el peligro de que este dispositivo que no deja de perfeccionarse reemplace la escritura humana, el escritor distingue: "Si una máquina puede hacerlo igual o mejor que un humano, es porque la máquina sólo está cumpliendo de manera más eficiente y veloz algo que ya no exigía del hombre ninguna auténtica creatividad".

La conclusión, para Mavrakis, es que "la máquina es incapaz de crear en serio. Y también que, por la misma razón, es incapaz de escribir en serio. Solo cumple un proceso automatizado, pero no crea nada".

El escritor es claro: "La creatividad de la máquina es nula porque carece de imaginación, deseos y libertad. Sólo ofrece combinaciones precalculadas de datos provistos previamente por su propietario. Eso significa que no hay margen de error, no hay margen de duda, no hay margen de espontaneidad. Y es todo eso, precisamente, lo que implica escribir en serio para un humano".

Por la falta de regulación y normativa de las plataformas de streaming y de la IA, los gremios de guionistas y de actores de Estados Unidos realizaron una huelga general durante más de cinco meses en 2023.

Y amplía: "A través de Hölderlin, Martin Heidegger apuntaba a ese ligero acto de conciencia cuando, respecto de la relación entre la técnica moderna y el hombre, dijo que 'en el peligro crece también lo que salva'. La máquina no conoce el peligro ni tiene salvación. Dicho esto, sospecho que el chat GPT escribió casi todos los manuales sobre 'amor' que inundan las librerías desde hace algunos años".
En un escenario que por momentos aparece retratado como apocalíptico, ¿es posible una relación horizontal entre la tecnología y la humanidad? Mavrakis teme sonar dramático con su respuesta pero para él hoy "'la esencia de la técnica moderna", en términos de Heidegger, "no está en discusión y sólo propaga lo que la técnica moderna requiere". Según explica, esto vendría a ser "un mundo y una existencia en el que las personas y las cosas se vuelvan mercancías calculables y reemplazables".

"Hoy no hay relación horizontal posible, al menos, si con eso estamos pensando en algún tipo de armonía desinteresada. Silicon Valley no quiere ofrecernos comunicación irrestricta con el próximo, sino publicidad segmentada permanente, lo cual deriva en que cada tres o cuatro años los grandes propietarios de internet tienen que pagar enormes multas en Europa por prácticas monopólicas o indemnizaciones en los Estados Unidos por la adicción que generan en los chicos las redes sociales", explica Mavrakis y advierte que "la contraparte de este afán corporativo de dominación mercantil es el goce que nosotros experimentamos como usuarios cuando nos entregamos al funcionamiento narcisista de las redes".

En ese sentido, concluye: "Quizás eso sea una relación justa de intercambios, algo donde todos perdemos un poco y ganamos un poco. La alternativa todavía no existe, quizás porque en el fondo no nos interesa que exista".

(Fuente :Telam)

miércoles, 15 de mayo de 2024

Seis nuevas funciones de la última versión de ChatGPT-4o

6 nuevas funciones de la última versión de ChatGPT que es capaz de coquetear y detectar emociones (y las fallas que cometió).


OpenAI presentó el lunes la nueva versión de su exitoso chatbot de inteligencia artificial ChatGPT, que puede recibir y responder peticiones combinando audio, imagen y texto.

Se llama GPT-4o ("o" de "omni") y estará disponible gratuitamente para todos los usuarios, aunque los suscriptores le podrán hacer más consultas.

GPT-4o integra en una sola herramienta funcionalidades de chatbots (como ChatGPT 3.5), asistentes de voz (como Siri o Alexa) y modelos de procesamiento de imágenes.

En palabras del reportero de tecnología de The New York Times, "mientras Apple y Google están transformando sus asistentes de voz (Siri y Hey Google) en chatbots, OpenAI está transformando su chatbot (ChatGPT) en un asistente de voz".

La nueva versión es más rápida que las anteriores, y fue programada para tener un tono más conversacional y cálido, e incluso a veces coqueto, en sus respuestas a los requerimientos de los usuarios.
Durante la demostración en vivo del lunes, la IA le dijo al presentador "me estás haciendo sonrojar" cuando le hizo un cumplido.

Sam Altman, fundador de OpenAI, escribió en un mensaje en la red social X tras el anuncio la palabra "her", en referencia a la película de 2013 Her ("Ella"), en la que el protagonista se enamora del sistema operativo de su computador.

Según MIT Technology Review, GPT-4o tiene capacidades similares a su antecesor GPT-4, pero fusiona en un único modelo varios modelos que funcionaban por separado, "y eso se traduce en respuestas más rápidas y transiciones más fluidas entre tareas".

Estas son las novedades de la versión recién presentada:

Sam Altman, fundador de OpenAI, y Mira Murati, directora de tecnología.

1. Conversaciones fluidas y emotivas

Según OpenAI, su nueva tecnología es capaz de responder a peticiones de audio (es decir, preguntas u órdenes en voz alta de los usuarios) en un promedio de 320 milisegundos, un tiempo similar al que tarda un ser humano en responder en una conversación en inglés. Y los usuarios pueden interrumpir a la IA en cualquier momento.

También, el modelo es capaz de generar voz en una variedad de estilos emotivos, como "dramático" o "sarcástico".

2. "Sé mis ojos"

En uno de los videos de demostración de la nueva tecnología, se ve a la IA describiendo en tiempo real para un usuario el comportamiento de unos patos en un pequeño lago o avisándole cuando viene un taxi.

GPT-4o es capaz de leer e interpretar imágenes a medida que van apareciendo en la cámara. Incluso puede identificar emociones en expresiones faciales.

Es una funcionalidad construida en colaboración con la aplicación danesa Be My Eyes y diseñada para asistir a personas con discapacidad visual.

3. Traducción en tiempo real

GPT4-o puede hacer de traductor en una conversación entre dos personas que no hablan el mismo idioma, aunque con errores.

También, usando su modelo de procesamiento de imágenes, la IA puede decirle al usuario cómo se llaman ciertos objetos que le muestre en la cámara en otro idioma.

Sam Altman, fundador de OpenAI, escribió en un mensaje en la red social X tras el anuncio la palabra "her", en referencia a la película de 2013 Her ("Ella"), en la que el protagonista se enamora del sistema operativo de su computador.

Sam Altman, fundador de OpenAI, escribió en un mensaje en la red social X tras el anuncio la palabra "her", en referencia a la película de 2013 Her ("Ella"), en la que el protagonista se enamora del sistema operativo de su computador.

4. Asistencia en reuniones

"En la reunión de hoy, Lilian y Christine expresaron su amor por los perros, subrayando su lealtad, compañía y lo geniales que son con los niños. Por otro lado, Ola prefiere los gatos por su independencia, tranquilidad y longevidad", resumió (en un video de OpenAI) con un acento estadounidense GPT-4o tras estar presente en una reunión virtual de 4 personas.

La nueva versión del modelo puede transcribir una reunión, tomar notas y resumir lo que pasó.

5. Ayuda con las matemáticas

GPT-4o es capaz de ayudar al usuario con sus tareas de matemáticas -por ejemplo, a resolver una ecuación- sin decirle la respuesta.

De acuerdo con las demostraciones de la compañía, un estudiante puede, por ejemplo, mostrarle a GPT-4o un problema de trigonometría que hay en su libro de texto, y la IA puede guiarlo para resolverlo, hacerle preguntas y corregirlo si comete errores en el proceso.

6. Generar imágenes

La nueva versión de ChatGPT incluye funcionalidades de herramientas de generación de imágenes como Dall-E (también de OpenAI).

Puede, por ejemplo, crear una imagen a partir de un comando en texto, puede convertir una foto en una caricatura o inventarse el póster de una película interpretando imágenes e ideas en texto que le dé el usuario.



Las fallas

La demostración no salió perfecta: en un momento, la IA confundió al presentador sonriente con una superficie de madera. En otro, empezó a resolver una ecuación que aún no se le había mostrado.

James O’Donnell, reportero de Inteligencia Artificial de MIT Technology Review, escribió sobre la demostración que "la voz de GPT-4o podía intervenir de forma incómoda durante la conversación y pareció que comentaba el atuendo de uno de los presentadores sin que se lo pidieran".

Eso demostró, sin quererlo, que aún queda camino por recorrer antes de que se solucionen los fallos y las alucinaciones que hacen que los chatbots sean poco fiables y potencialmente inseguros.

Pero lo que sí muestra el reciente lanzamiento es la dirección que va a tomar OpenAI: hacer de ChatGPT un asistente virtual, como Siri o Hey Google, pero mejorado, que recuerde lo que se le dijo en el pasado y pueda interactuar más allá de la voz o el texto.

La forma en la que GPT-4o maneja la combinación de texto, audio e imágenes con una respuesta instantánea parece poner a OpenAI por delante de la competencia.

Por supuesto, por ahora solo se conocen los videos y la demostración preparada y organizada por la empresa. Falta ver cómo reacciona esta nueva tecnología en la interacción con millones de usuarios.

(Fuente: BBC)

jueves, 9 de mayo de 2024

¿Es posible saber si alguien ha usado ChatGPT para redactar un texto?

Desde redactar artículos, pasar exámenes de admisión universitaria, hasta componer poesía y código de programación, ChatGPT demuestra una flexibilidad y versatilidad que abre nuevas posibilidades y plantea interrogantes en igual medida. ¿Es posible identificar sus creaciones?


(Foto: iStock).

La relevancia de ChatGPT en el ámbito de la generación de texto automatizado no puede subestimarse. Su capacidad para entender y generar lenguaje natural ha encontrado aplicaciones en una amplia gama de campos, desde la automatización de respuestas en servicios de atención al cliente hasta la asistencia en la escritura creativa y técnica. Sin embargo, esta capacidad también trae consigo desafíos importantes, especialmente en lo que respecta a la autenticidad y la originalidad del contenido generado.

Identificar textos generados por IA se ha convertido en una necesidad en diversos contextos. En el ámbito académico, por ejemplo, es fundamental para mantener la integridad de los trabajos y asegurar que los estudiantes desarrollen y demuestren sus habilidades de investigación y escritura. En el ámbito profesional, diferenciar entre contenido creado por humanos y por IA puede influir en la toma de decisiones, la credibilidad de la información y la propiedad intelectual. En el campo creativo, aunque la IA puede ser una herramienta para inspirar y asistir en el proceso creativo, reconocer la autoría y la contribución humana sigue siendo esencial para valorar el arte y la literatura.

Por tanto, la capacidad de identificar si un texto ha sido generado por ChatGPT o por una inteligencia artificial similar se ha vuelto una habilidad crítica. No sólo para proteger valores académicos y profesionales, sino también para navegar con confianza en un paisaje mediático cada vez más influenciado por la tecnología de generación de texto automatizado. Este texto busca explorar métodos y señales que pueden ayudar a distinguir entre el ingenio humano y la destreza artificial, un desafío creciente en la era digital.

Entendiendo a ChatGPT

ChatGPT, desarrollado por OpenAI, es un modelo de inteligencia artificial especializado en procesamiento de lenguaje natural (PLN) que se basa en la arquitectura de los Transformadores (Transformer). Esta arquitectura permite al modelo prestar atención a diferentes partes de un texto para generar respuestas coherentes y contextuales. La "magia" detrás de ChatGPT y otros modelos GPT (Generative Pre-trained Transformer) radica en su método de entrenamiento y funcionamiento.

ChatGPT es entrenado en un vasto corpus de texto recopilado de internet, libros, artículos y otros medios. Durante este entrenamiento, el modelo aprende patrones de lenguaje, estructuras gramaticales, conocimiento factual y estilos de escritura. Esta fase de entrenamiento previo es fundamental, ya que dota al modelo de una base de conocimiento general sobre el mundo y el lenguaje humano.

Después del entrenamiento previo, ChatGPT puede ser ajustado mediante técnicas de aprendizaje automático para tareas específicas. Esto significa que, además de su entrenamiento general, puede recibir entrenamiento adicional para mejorar en áreas específicas, como conversaciones técnicas, escritura creativa o asistencia al cliente.

Al generar texto, ChatGPT evalúa millones de posibilidades basándose en el prompt (instrucción inicial) que recibe, seleccionando la secuencia de palabras que considera más probable y adecuada para la continuación del texto. Esto se logra mediante la evaluación de la probabilidad de secuencias de palabras, teniendo en cuenta no solo la coherencia y relevancia con el prompt, sino también el estilo y tono del texto solicitado.

Diferencias clave entre la escritura humana y la generada por IA


Aunque ChatGPT puede imitar de manera impresionante el estilo y la estructura de la escritura humana, existen diferencias clave que pueden ayudar a distinguir entre textos generados por humanos y por IA.

• Mientras que la escritura humana puede reflejar una profundidad de emoción, experiencias personales y creatividad únicas, los textos generados por IA, aunque coherentes y fluidos, a menudo carecen de esa chispa de originalidad o de un contexto profundo y personal. Los humanos son capaces de tejer experiencias vividas y emociones sutiles en sus escritos, algo que la IA todavía no puede replicar completamente.

• ChatGPT, a pesar de su avanzado entrenamiento, puede cometer errores en la interpretación del contexto o en el manejo de conocimiento muy específico o actualizado. A veces, genera información que, aunque plausible, puede ser incorrecta o basada en malentendidos del texto fuente.

• La escritura generada por IA puede caer en repeticiones o usar patrones de fraseo menos variados en comparación con la escritura humana. Los humanos tienden a utilizar una mayor diversidad de vocabulario y estructuras sintácticas, y son más capaces de evitar la redundancia de manera intuitiva.

• La escritura humana puede incorporar y responder a eventos muy recientes o a información que no estaba disponible durante el entrenamiento del modelo de IA. En cambio, ChatGPT puede no estar al tanto de los acontecimientos o descubrimientos más recientes, limitando su capacidad para generar respuestas actualizadas sobre temas de última hora.

Con estas cuatro diferencias ya tenemos algunas pistas para descubrir si un texto ha sido creado con ChatGPT o no.

Características de los textos generados por ChatGPT


La generación de texto por ChatGPT ha revolucionado la forma en que concebimos la escritura automatizada, ofreciendo resultados que, a primera vista, pueden parecer indistinguibles de los textos humanos. Sin embargo, hay características distintivas y patrones que pueden ayudar a identificar los textos generados por inteligencia artificial. Veamos estos aspectos bajo tres categorías principales: estilo y coherencia, repeticiones y patrones, y errores comunes y limitaciones.

Estilo y coherencia: una de las señales más reveladoras de un texto generado por IA es una coherencia y uniformidad excesivas en el estilo. ChatGPT mantiene un nivel de cohesión muy alto a lo largo del texto, algo que, aunque deseable en ciertos contextos, puede parecer poco natural comparado con la escritura humana, que a menudo exhibe variaciones de tono y estilo.

Las transiciones entre oraciones y párrafos en los textos de ChatGPT, por otro lado, suelen ser suaves y lógicas, pero pueden carecer de la creatividad o el ingenio espontáneo que caracteriza a los escritores humanos. La IA tiende a seguir patrones de transición más predecibles y menos variados.

Repeticiones y patrones: una característica común de los textos generados por ChatGPT es la repetición de frases o estructuras de oraciones similares dentro de un mismo texto. Esto puede manifestarse como la reutilización de ciertas construcciones sintácticas o vocabulario específico más frecuentemente de lo que normalmente se observaría en la escritura humana.

Aunque ChatGPT es capaz de generar textos con un vocabulario rico y variado, a veces puede elegir palabras o frases que, aunque correctas, pueden parecer inusuales o poco típicas en el contexto dado. Estas elecciones pueden reflejar las limitaciones en su entrenamiento o una comprensión imperfecta de las sutilezas del lenguaje.

Errores comunes y limitaciones: ChatGPT, a pesar de su avanzada capacidad para procesar y generar lenguaje, a veces puede cometer errores de comprensión, especialmente en contextos complejos o sutiles. Esto puede incluir malinterpretaciones del significado pretendido de una pregunta o prompt, resultando en respuestas que, aunque coherentes, son incorrectas o irrelevantes.

Finalmente...


Dado que ChatGPT se entrena en un conjunto de datos que no incluye información en tiempo real, puede mostrar limitaciones al abordar temas muy recientes o en evolución. La incapacidad de referenciar eventos actuales o datos específicos de última hora es una clara señal de contenido generado por IA.

Identificar estas características en los textos es esencial en la era de la información en la que vivimos. Al familiarizarnos con las sutilezas de los textos generados por IA, podemos navegar mejor el panorama digital, discerniendo entre la creatividad humana y la generación automatizada de contenido.

Si buscamos alguna herramienta automática que nos diga si un texto ha sido generado por ChatGPT o no, mejor no perder el tiempo, ninguna de las existentes hoy es infalible, por lo que necesitaremos el "olfato humano" del que tanto presumimos.

Fuente: muy interesante

viernes, 26 de abril de 2024

Cómo extraer el texto de una imagen usando el OCR de ChatGPT

OCR son las siglas de Reconocimiento Óptico de Caracteres, una tecnología que usan muchas aplicaciones para extraer texto de una imagen. Google Lens, sin ir más lejos, consigue extraer el texto de lo que enfoquemos, y Google Traductor lo extrae y lo traduce al mismo tiempo. En este artículo vamos a ver cómo funciona esta tecnología dentro de ChatGPT.

 Lo primero que tenemos que tener en cuenta es que ChatGPT solo puede reconocer el texto de las imágenes y documentos que subamos a su plataforma, y eso solo es posible hacerlo desde ChatGPT Plus, usando el modelo GPT-4.

Una vez subamos el archivo, ChatGPT se encargará de analizarlo, y no hace falta que le digamos específicamente que queremos que lea su contenido, el sistema de Inteligencia Artificial ya se encarga de hacerlo de forma automática.

Veamos un ejemplo con una imagen que contiene código fuente:

Ejemplo con una imagen que contiene código fuente

En este caso se subió una imagen de un programa que daba error, y ChatGPT fue capaz de reconocer el código y ofrecer una solución adecuada al problema que estaba teniendo.

Pero no solamente es capaz de entender letras perfectamente definidas, también puede hacerlo con letras manuscritas (con ciertos límites) o letras en disposición vertical o inclinadas.

Veamos otro ejemplo:

Otro ejemplo más

Fijarse que en este caso la letra es terrible, no tiene forma definida, ni estructura. Las “e” son diferentes en cada palabra, no está alineado nada con nada, pero aún así, ChatGPT es capaz de juntar los píxeles de la imagen y llegar a la conclusión de que son letras. La orden “Transcribe esto” es la adecuada para que pueda transformar el contenido en texto.

Qué utilidades podría tener la herramienta OCR de ChatGPT

La herramienta OCR que se integra con ChatGPT puede tener múltiples utilidades, especialmente en campos donde se necesita convertir grandes cantidades de documentos impresos o manuscritos en texto editable y analizable. Aquí algunas aplicaciones:

  • Digitalización de documentos: Para bibliotecas y archivos que buscan digitalizar su contenido histórico y hacerlo accesible en línea.
  • Automatización de oficina: Para convertir formularios impresos o escritos a mano en datos digitales, facilitando el almacenamiento, la búsqueda y el análisis de información.
  • Traducción automática: Al convertir texto de imágenes a texto digital, es posible utilizar herramientas de traducción automática para entender documentos en otros idiomas.
  • Procesamiento de facturas y recibos: Para empresas que necesitan digitalizar y catalogar grandes volúmenes de facturas y recibos para su contabilidad y auditoría. Podemos leer el contenido y estructurar la información de la factura.
  • Medios de comunicación y periodismo: Para periodistas que requieren extraer y analizar información de documentos en formatos no digitales.
  • Automatización de entrada de datos: Para reducir el trabajo manual y el error humano en la entrada de datos a sistemas computarizados.

El uso de OCR con ChatGPT combina la capacidad de comprensión y generación de texto del modelo de lenguaje con la habilidad de interactuar y procesar información visual, lo que amplía significativamente las aplicaciones y los contextos en los que se puede emplear. Una vez se extraiga el texto de la imagen, se puede trabajar con él de la misma forma que si se hubiera introducido el texto a mano.

Cómo extraer el texto de una imagen usando el OCR de ChatGPT.

Qué limitaciones tiene el OCR de ChatGPT

El OCR es una tecnología poderosa, pero como todas, tiene limitaciones. Algunas de estas incluyen:

  • Calidad de la imagen: El OCR depende fuertemente de la calidad de la imagen. Textos borrosos, pixelados o con iluminación inadecuada pueden resultar en un reconocimiento pobre.
  • Estilos de fuente: Las fuentes altamente estilizadas o caligráficas pueden ser difíciles de interpretar. El OCR funciona mejor con textos impresos en fuentes estándar, aunque ya se ha visto antes que en este caso es capaz de interpretar bastante bien texto manuscrito.
  • Idiomas y caracteres especiales: Algunos idiomas y caracteres especiales (como los ideogramas chinos o japoneses) son más desafiantes para el OCR que los caracteres latinos estándar.
  • Disposición del texto: Las disposiciones complejas o poco convencionales (como columnas, cuadros de texto en ángulos, o texto que fluye alrededor de gráficos) pueden confundir a los sistemas de OCR.
  • Errores de conversión: Incluso con imágenes claras y texto impreso, el OCR puede introducir errores de reconocimiento, especialmente con números y letras similares (por ejemplo, 0 y O, 1 y l, 5 y S).
  • Elementos gráficos: Las imágenes y otros elementos gráficos que se entremezclan con el texto pueden interferir con la precisión del OCR.
Como se ve, nada es perfecto, pero si preparamos bien la imagen antes de enviarla a ChatGPT, las probabilidades de éxito serán altas.

viernes, 2 de junio de 2023

ChatGPT-3.5 vs. GPT-4: ¿imperfecto por diseño? Explorando los límites de la inteligencia artificial conversacional

Te presentamos un estudio que analiza el impacto de los avances en la inteligencia artificial, especialmente en los chatbots, con un enfoque en las versiones ChatGPT-3.5 y la nueva GPT-4. Se llevaron a cabo 600 pruebas que revelaron numerosos casos de respuestas incorrectas, incoherentes y sesgadas en ambas versiones.

Fuente y créditos: ResearchGate.net

Podés leer la versión completa o descargar el PDF aquí.