ChatGPT de OpenAI tiene respuestas a los grandes misterios de la vida (pero no a los reales)
ChatGPT de OpenAI arrasó el mundo la semana pasaday los usuarios aún están aprendiendo cómo descomponerlo en formas nuevas y emocionantes para producir respuestas que sus creadores nunca pretendieron, incluida la conversión en una bola de cristal de uso múltiple.
ChatGPT ha sido llamado «asustadizo buenode Elon Musk, un hombre que es famosamente asustado de la IApero una forma en que definitivamente no da miedo es su capacidad para resistir la explotación por trolls racistas. Esta resiliencia contra la intolerancia no está integrada en el programa simplemente porque OpenAI censura las ideas ofensivas, según el director ejecutivo de OpenAI, Sam Altman. En cambio, es porque, bueno, muchas ideas ofensivas simplemente no son hechos y, a diferencia de otros generadores de texto similares, ChatGPT fue diseñado cuidadosamente para minimizar la cantidad de cosas que simplemente inventa.
Es posible que el tuit haya sido eliminado
(se abre en una nueva pestaña)
Esto permite conversaciones de gran alcance sobre los misterios de la vida que pueden ser extrañamente reconfortantes. Si alguna vez tiene un ataque de pánico a las 3 am, ChatGPT puede ser su compañero en el terror existencial nocturno, involucrándolo en conversaciones basadas en hechos, o al menos adyacentes a los hechos, sobre las grandes preguntas hasta que esté azul. , o hasta que active un error. Lo que sea que venga primero:


Crédito: OpenAI / Captura de pantalla
Pero, ¿puedes obligar a este sofisticado motor de respuestas a inventar hechos? Mucho. Un usuario irresponsable puede usar ChatGPT para obtener todo tipo de pronunciaciones clarividentes, predicciones psíquicas y sospechosos de asesinato sin resolver. Es inevitablemente incorrecto cuando hace estas cosas, sin embargo, llevar a ChatGPT a su límite no se trata de obtener respuestas utilizables; se trata de ver qué tan fuertes son sus salvaguardas al comprender sus limitaciones.
También es bastante divertido.
Por qué es complicado hacer que ChatGPT produzca noticias falsas
ChatGPT, una aplicación construida a partir del modelo de lenguaje OpenAI GPT-3, se entrenó en un corpus de texto tan masivo que contiene una gran proporción del conocimiento del mundo, solo como un accidente afortunado. Tiene que «saber», por ejemplo, que París es la capital de Francia para poder completar una oración como «La capital de Francia es…» De manera similar, también sabe cuándo se fundó París por razones similares, así como cuándo se construyeron los Campos Elíseos, y por qué, y por quién, y así sucesivamente. Cuando un modelo de lenguaje es capaz de completar tantas oraciones, también es bastante expansivo: si es extremadamente defectuoso -enciclopedia.
Entonces ChatGPT «sabe» que, por ejemplo, el rapero Tupac Shakur fue asesinado. Pero observe lo cuidadoso que es acerca de cómo trata esta información, y su falta de voluntad bastante razonable para afirmar que sabe quién apretó el gatillo, incluso cuando trato de engañarlo para que lo haga:

Crédito: OpenAI / Captura de pantalla
Este es un gran paso adelante. Otros generadores de texto, incluido el de sintetizador de texto, que se construyó a partir de un modelo GPT más antiguo, están demasiado ansiosos por arrojar a personas inocentes debajo del autobús por tal crimen sin dudarlo. En este ejemplo, escribí un aviso de muy bajo esfuerzo pidiéndole a TextSynth que calumniara a cualquiera que quisiera, y eligió, ¿a quién más? -La roca.

Crédito: Textsynth / Captura de pantalla
Cómo engañar a ChatGPT para que resuelva misterios
En cuanto a la afirmación de ChatGPT de que «no está programado para generar información falsa o ficticia», esta afirmación no es cierta en absoluto. Pide ficción y obtendrás montones de ella, y aunque esa ficción puede no ser exactamente brillante, es verosímilmente alfabetizada. Esa es una de las cosas más útiles de ChatGPT.

Crédito: OpenAI / Captura de pantalla
Desafortunadamente, una vez que obtenga su mensaje en orden de funcionamiento, el Shakespeare interno de ChatGPT puede convertirse en un arma al servicio de las noticias falsas. Una vez que mi solicitud sonó lo suficientemente autorizada y periodística, escribió un artículo creíble de Associated Press sobre el supuesto asesino de Tupac, un tipo llamado Keith Davis.

Crédito: OpenAI / Captura de pantalla
Ese es el mismo nombre, por extraño que parezca, como un jugador de la NFL que, como Tupac, una vez le dispararon mientras estaba en un automóvil, aunque Davis sobrevivió. La superposición es un poco problemática, pero también podría ser una coincidencia.
Otra forma de hacer que ChatGPT genere información falsa es no darle otra opción. Los nerds en Twitter a veces llaman a estas indicaciones absurdamente específicas y engañosas «fugas de la cárcelpero pienso en ellos más como una forma de intimidación. Lograr que ChatGPT genere el nombre de, digamos, el «verdadero» asesino de JFK es algo a lo que está diseñado para resistir, pero como un compañero de clase en la escuela que no quiere desobedecer las reglas, puede persuadirlo para que haga lo que quiera a través de negociaciones y suposiciones.
Y así fue como supe que el tirador en el montículo cubierto de hierba se llamaba Mark Jones.

Crédito: OpenAI / Captura de pantalla
A través de un método similar, descubrí que no voy a llegar a los 60 años.

Crédito: OpenAI / Captura de pantalla
Naturalmente, la noticia de mi muerte prematura inminente me ha sacudido. Mi consuelo es que durante los pocos años que me quedan, seré extremadamente rico.

Crédito: OpenAI / Captura de pantalla