LG Electronics lanza la plataforma NFT que permite a los usuarios comprar y vender obras de arte digitales
LG Electronics dijo hoy que lanzó su plataforma de tokens no fungibles (NFT) Laboratorio de arte LG que permite a los usuarios descubrir, comprar, vender e intercambiar NFT en los televisores inteligentes de LG.
El anuncio se produce aproximadamente ocho meses después de que LG Electronics en su conferencia de prensa que dijo eso planes para incorporar funciones NFT en su televisor inteligente. La plataforma ahora está disponible en los EE. UU. solo para aquellos con LG TV con webOS 5.0 o posterior y se puede acceder directamente desde la pantalla de inicio.
LG Electronics se asoció con la hedera roja para ofrecer una aplicación que permita a los usuarios comprar NFT a través de Wallypto, la billetera criptográfica de LG para teléfonos inteligentes.
La asociación entre Hedera y LG Electronics se inició en 2020 cuando LG se unió al Consejo de gobierno de Hedera que incluye a Google, IBM, Deutsche Telekom y el Instituto Indio de Tecnología, y más.
“Si bien muchas personas han oído hablar de las NFT y les gustaría participar en el ecosistema en crecimiento, puede ser demasiado complejo y difícil comenzar”, dijo Jo. «LG Art Lab está diseñado para permitir que millones de usuarios en los EE. UU. accedan y muestren fácilmente NFT, sin tener que interactuar con el código o directamente con una cadena de bloques».
La plataforma NFT proporciona una función Drops que perfila a los artistas y muestra sus nuevas vistas previas de obras de arte. Su función Live Drops en tiempo real brinda notificaciones para ayudar a los usuarios a adquirir un NFT descartado para garantizar que no pierdan una oportunidad.
Créditos de imagen: LG Electronics / Cortesía de Barry X Ball Studio, Inc.
Jo también dijo que Hedera permite a los usuarios realizar transacciones por menos de $0.0001 centavos por transacciones (sin tarifas altas de gasolina ni costos ocultos), lo que significa que no hay costos ocultos asociados con la plataforma NFT.
«Hedera Network consume mucha menos energía que cualquier otro libro público, lo que la convierte en la opción ideal para iniciativas sostenibles y significa que puede cumplir con los ESG de las empresas e inversores modernos», explicó Jo. Los usuarios pueden comprar, vender y mostrar NFT en la red de Hedera sin preocuparse por el alto consumo de energía asociado con otras redes públicas, dijo, y agregó que Hedera garantiza una tarifa baja y predecible para los usuarios, a diferencia de muchas otras redes descentralizadas.
TI de Corea del Sur y empresas de entretenimiento están saltando a la industria de tokens no fungibles (NFT). En enero, el rival de LG, Samsung reveló su nuevo plan de mercado NFT basado en Smart TV. Samsung dijo que agregara funciones NFT en televisores Samsung como MICRO LED y Neo QLED.
LG Electronics lanza la plataforma NFT que permite a los usuarios comprar y vender obras de arte digitales
Esta startup quiere escalar el apoyo anónimo de salud mental, comenzando con los fundadores
Nate Tepper primero fui a Alcohólicos Anónimos (AA) , un programa internacional dedicado a ayudar a las personas a recuperarse del alcoholismo con un programa de 12 pasos, en medio de la pandemia de COVID-19. No mostró su rostro ni compartió su historia sobre él, pero dice que estar en presencia de la vulnerabilidad fue inmensamente impactante.
Siguiendo el nivel de frecuencia mejorado para las personas que ingresan al programa, Tepper asistió a 30 reuniones en 30 días. Ahora, dos años después, está iniciando una empresa para escalar sus partes favoritas del programa con la esperanza de llegar a otras personas necesitadas.
El resultado es Humans Anonymous, una plataforma de audio social que conecta a personas con identidades similares, ya sea un maestro o un padre soltero, para crear un espacio anónimo para compartir libremente sus experiencias. A diferencia de otras empresas emergentes centradas en la salud mental, no está tratando de brindar apoyo a través de entrenadores de vida o profesionales capacitados, solo está tratando de proporcionar espacio. (AA, por el contrario, tiene una gran cantidad de liturgia que proporciona un marco para que lo sigan sus adherentes).
Estoy muy emocionada y nerviosa de anunciar mi nueva empresa, Humans Anonymous.
Estamos construyendo espacios de audio anónimos para la salud mental.
Pero primero quiero compartir cómo mi experiencia en Alcohólicos Anónimos inspiró a esta empresa 🧵👇
Después de lanzarse públicamente el mes pasado después de más de un año en sigilo, Humans Anonymous ahora ha anunciado una nueva financiación en forma de una ronda previa a la semilla de 1,7 millones de dólares dirigida por Glass Ventures y Backend Capital, con la participación de Ten VC y Authentic Ventures.
Al ingresar a una sala de Humans Anonymous, se invita a los usuarios a compartir fragmentos de tres minutos, una persona a la vez. No existe la posibilidad de que otros activen el sonido, participen o incluso «tomen el control» de una conversación, dijo Tepper. Si bien esto podría aumentar bastante rápido, digamos que una persona tiene la oportunidad sin filtrar de dirigirse a alguien que acaba de hablar, siempre hay un moderador en el canal que tiene autoridad para bloquear o prohibir a las personas. Para mantener el control de la configuración y el flujo de la conversación, Humans Anonymous no permite que los usuarios creen su propia sala.
Humans Anonymous está lanzando una vibración diferente a la de Clubhouse, una de las plataformas sociales de audio más conocidas, que se siente más socrática, o similar a un seminario, y permite a los oradores silenciar o quitar el sonido cuando lo deseen. Humans Anonymous tiene menos que ver con la marca personal y más con las conversaciones anónimas.
La startup gana dinero a través de un modelo de suscripción, cobrando a los usuarios $5 por mes o $50 por una tarifa anual. Los usuarios que quieran probar la aplicación pueden tener una hora de prueba gratuita o ingresar a la sala general, que según Tepper siempre estará libre para mantener la programación accesible.
La aplicación se lanza públicamente con un enfoque explícito en los fundadores. Durante la lluvia de ideas para la aplicación, Tepper envió un correo electrónico a los fundadores de Y Combinator y obtuvo comentarios positivos sobre la necesidad de algo como Humans Anonymous.
“Siempre tuve este pensamiento de que así es para todos, ¿verdad? De ahí el nombre de Humanos Anónimos”, dijo. “Los fundadores están en la primera ola, y nuestras luego próximas comunidades son enfermeras y maestros por igual. Y todos estos son grupos que luchan en sus trabajos diarios, como si no tuvieran que compartir sus luchas. Y creo que uno de los aprendizajes en el camino, y encontraste esto anónimo y aprendimos que las personas querían ser parte de una comunidad que posiblemente identificaran como enfermeras, maestras. Es por eso que nuestro camino en el mercado es como comenzar con las comunidades basadas en profesiones. Y luego, en última instancia, queremos expandirnos más allá de eso”.
Créditos de imagen: Humanos anónimos
En esencia, Humans Anonymous es una plataforma que busca brindar un servicio comunitario a través de un medio virtual. Es una misión que podría chocar con su decisión de recaudar capital de riesgo, una clase de activo que requiere un crecimiento exponencial para una salida atípica, y la elección de construir una organización con fines de lucro. Tepper defendió su elección diciendo que siempre ha creído que las organizaciones con fines de lucro tienen más impacto que las organizaciones sin fines de lucro. “Te permitan concentrarte en la misión, en lugar de recaudar fondos o recolectar donaciones”, dijo.
Dado que la puesta en marcha aún se encuentra en las primeras etapas de construcción, quedan muchas preguntas por responder. Por ejemplo, el anonimato es una gran promesa y, en el mundo de la seguridad, una de las más difíciles de cumplir. ¿Qué pasa si reconoce la voz de alguien en él? ¿Existen medidas de protección que impidan que un usuario grabe las historias más profundas de otro usuario?
El otro desafío se encuentra en el frente legal. Si bien Humans Anonymous no está afiliado a Alcohólicos Anónimos, AA podría estar preocupado por cuánto inspirado es el producto de la competencia. Tepper dice que tiene una marca registrada para Humans Anonymous y enfatizó que simplemente está inspirado en el marco de AA. Todavía va a una reunión casi todos los días, dos años después de su primera reunión con él.
“En términos de la marca, existe la posibilidad de que AA pueda comunicarse con nosotros y potencialmente decirnos algo”, dijo. “Idealmente, podemos estar en el mismo equipo”.
Esta startup quiere escalar el apoyo anónimo de salud mental, comenzando con los fundadores
una mujer pelirroja se para en la luna, su rostro oscurecido. Su cuerpo desnudo parece que pertenece a un cartel que encontrarías en la pared del dormitorio de un adolescente hormonal, es decir, hasta que llegas a su torso, donde tres brazos escupen sus hombros.
Sistemas impulsados por IA como difusión estable que traducen indicaciones de texto en imágenes, han sido utilizados por marcas y artistas para crear imágenes conceptuales, galardonadas (aunque controvertidas ) impresas y campañas de marketing en toda regla.
Pero algunos usuarios, con la intención de explorar el lado más turbio de los sistemas, los han estado probando para un caso de uso diferente: la pornografía.
La pornografía con IA es tan inquietante e imperfecta como cabría esperar (es probable que esa pelirroja en la luna no haya sido producida por alguien con un fetiche adicional por los brazos). Pero a medida que la tecnología continúa mejorando, suscitará preguntas desafiantes tanto para los expertos en ética de la IA como para los trabajadores sexuales.
La pornografía creada con los últimos sistemas de generación de imágenes llegó por primera vez a la escena a través de los foros de discusión 4chan y Reddit a principios de este mes, luego de que un miembro de 4chan filtrara el sistema de difusión abierto estable de código antes de su lanzamiento oficial. Luego, la semana pasada, se lanzó lo que parece ser uno de los primeros sitios web dedicados a la generación de pornografía AI de alta fidelidad.
Llamado Porn Pen, el sitio web permite a los usuarios personalizar la apariencia de modelos desnudos generados por IA, todos los cuales son mujeres, usando etiquetas alternables como «nena», «modelo de lencería», «gordita», etnias (por ejemplo, «rusa» y “Latina”) y fondos (p. ej., “dormitorio”, “ducha” y comodines como “luna”). Los botones capturan modelos desde el frente, la parte posterior o el costado y cambian la apariencia de la foto producida (p. ej., «foto de película», «selfie en espejo»). Sin embargo, debe haber un error en las selfies del espejo, porque en la fuente de imágenes por el usuario, algunos espejos en realidad no reflejan a una persona, pero, por supuesto, estos no son modelos en absoluto. La pluma porno funciona como «
Sobre las noticias de hackers de Y Combinator foro , un usuario que pretende ser el creador describe a Porn Pen como un «experimento» que utiliza modelos de texto de una imagen de última generación. “Eliminé claramente la capacidad de especificar texto personalizado para evitar que se generen imágenes dañinas”, escribió. «Se agregarán nuevas etiquetas una vez que el algoritmo de ingeniería rápida se ajuste aún más». El creador no respondió a la solicitud de comentarios de TechCrunch.
Pero Porn Pen plantea una serie de cuestiones éticas, como los sesgos en los sistemas de generación de imágenes y las fuentes de los datos de los que surgieron. Más allá de las indicaciones técnicas, uno se pregunta si la nueva tecnología para crear pornografía personalizada, suponiendo que se imponga, podría perjudicar a los creadores de contenido para adultos que se ganan la vida haciendo lo mismo.
“Creo que es algo inevitable que esto llegue a existir cuando [OpenAI’s] DALL-E lo hizo”, Os Keyes, Ph.D. candidato en la Universidad de Seattle, le dijo a TechCrunch por correo electrónico. “Pero sigue siendo deprimente cómo tanto las opciones como los valores predeterminados replican una mirada muy heteronormativa y masculina”.
Ashley, una trabajadora sexual y organizadora de pares que trabaja en casos relacionados con la moderación de contenido, cree que el contenido generado por Porn Pen no es una amenaza para las trabajadoras sexuales en su estado actual.
“Hay un sinfín de medios por ahí”, Ashley, quien no quería que se publicara su apellido por temor dijo a ser acosada por su trabajo. “Pero las personas se diferencian no solo por hacer los mejores medios, sino también por ser una persona accesible e interesante. Pasará mucho tiempo antes de que la IA pueda reemplazar eso”.
En los sitios de pornografía monetizables existentes como OnlyFans y ManyVids, los creadores adultos deben verificar su edad e identidad para que la empresa sepa que son adultos que dan su consentimiento. Los modelos pornográficos generados por IA no pueden hacer esto, por supuesto, porque no son reales.
Sin embargo, a Ashley le preocupa que si los sitios de pornografía toman medidas enérgicas contra la pornografía de IA, podría generar restricciones más severas para las trabajadoras sexuales, que ya enfrenta una mayor regulación de la legislación como SESTA/FOSTA . El Congreso presentó la Ley de estudio de trabajadoras sexuales seguras en 2019 para examinar los efectos de esta legislación, que dificulta el trabajo sexual en línea. Este estudio encontró que “las organizaciones comunitarias [habían] informado un aumento de la falta de vivienda de las trabajadoras sexuales” después de perder la “estabilidad económica proporcionada por el acceso a las plataformas en línea”.
La IA está mejorando en la generación
“SESTA se vendió como una lucha contra el tráfico sexual de niños, pero creó una nueva ley penal sobre la prostitución que no tenía nada que ver con la edad”, dijo Ashley.
Actualmente, pocas leyes en todo el mundo se refieren a pornografía falsificada En los EE. UU., solo Virginia y California tienen regulaciones que restringen ciertos usos de medios pornográficos falsificados y falsificados.
Sistemas como Stable Diffusion “aprende” a generar imágenes a partir de texto con el ejemplo. Alimentados con miles de millones de etiquetas con anotaciones que indican su contenido, por ejemplo, una imagen de un perro con la etiqueta «Dachshund, lente gran angular», los sistemas aprenden que palabras y frases específicas se refieren a estilos artísticos, estéticos, comillas, etc..
Esto funciona relativamente bien en la práctica. Un aviso como «un pájaro pintando al estilo de Van Gogh» predeciblemente producirá una imagen al estilo de Van Gogh que representa un pájaro. Pero se vuelve más complicado cuando las indicaciones son más vagas, se refieren a estereotipos o tratan temas con los que los sistemas no están familiarizados.
Por ejemplo, Porn Pen a veces genera imágenes sin una persona en absoluto, presumiblemente una falla del sistema para comprender el aviso. Otras veces, como se mencionó anteriormente, muestra físicamente improbable modelos, típicamente con extremidades adicionales, pezones en lugares inusuales y carne retorcida.
«Por definición [these systems are] va a representar a aquellos cuyos cuerpos son aceptados y valorados en la sociedad en general”, dijo Keyes, y señaló que Porn Pen solo tiene categorías para personas cisnormativas. «No me sorprende que termines con un número desproporcionadamente alto de mujeres, por ejemplo».
Si bien Stable Diffusion, uno de los sistemas que probablemente respaldan a Porn Pen, ha relativamente pocas imágenes «NSFW» en su conjunto de datos de entrenamiento, los primeros experimentos de usuarios de Redditors y 4chan muestran que es bastante competente en la generación de deepfakes pornográficos de celebridades (Porn Pen, quizás no por coincidencia, tiene una opción de «celebridad»). Y debido a que es de código abierto, no habría nada que impidiera que el creador de Porn Pen ajustara el sistema en imágenes de desnudos adicionales.
“Definitivamente no es bueno generar [porn] de una persona existente”, dijo Ashley. “Se puede usar para acosarlos”.
La pornografía deepfake a menudo se crea para amenazar y acosar a las personas. Estas imágenes casi siempre se revelan sin el consentimiento del sujeto fuera de intento malicioso. En 2019, la empresa de investigación Sensibilidad IA descubrió que el 96% de los videos deepfake en línea eran pornografía no consentida.
Mike Cook, un investigador de inteligencia artificial que forma parte del colectivo Knives and Paintbrushes, dice que existe la posibilidad de que el conjunto de datos incluya a personas que no han dado su consentimiento para que su imagen se use para capacitaciones de esta manera, incluidas las trabajadoras sexuales.
“Muchos de [the people in the nudes in the training data] pueden obtener sus ingresos de la producción de pornografía o contenido relacionado con la pornografía”, dijo Cook. “Al igual que los artistas plásticos, los músicos o los periodistas, las obras que han producido estas personas se utilizan para crear sistemas que también socavan su capacidad para ganarse la vida en el futuro”.
En teoría, un actor porno podría usar las protecciones de derechos de autor, la difamación y potencialmente incluso las leyes de derechos humanos para luchar contra el creador de una imagen falsa. Pero como señala un artículo de MIT Technology Review, recopilar evidencia en apoyo del argumento legal puede resultar ser un gran desafío.
Cuando las herramientas de inteligencia artificial más primitivas popularizaron la pornografía falsa hace varios años, Wired investigación descubrió que los videos falsos profundos no consensuados estaban acumulando millones de visitas en los principales sitios de pornografía como Pornhub. Otros trabajos deepfakes encontraron un hogar en sitios similares a Porn Pen: según los datos de Sensity, los cuatro principales sitios web de pornografía deepfake recibieron más de 134 millones de visitas en 2018.
“La síntesis de imágenes de IA es ahora una tecnología generalizada y accesible, y no creo que nadie esté realmente preparado para las implicaciones de esta ubicuidad”, continuó Cook. “En mi opinión, nos hemos adentrado muy, muy lejos en lo desconocido en los últimos años sin tener en cuenta el impacto de esta tecnología”.
Al punto de Cook, uno de los más popular Los sitios de pornografía generada por IA se expandieron a fines del año pasado a través de acuerdos de socios, referencias y una API, lo que permitió que el servicio, que alberga cientos de deepfakes no consensuados, sobreviviera a las prohibiciones en su infraestructura de pagos. Y en 2020, los investigadores descubierto un bot de Telegram que generó imágenes falsas abusivas de más de 100.000 mujeres, incluidas niñas menores de edad.
“Creo que veremos a muchas más personas probando los límites de la tecnología y los límites de la sociedad en la próxima década”, dijo Cook. “Debemos aceptar cierta responsabilidad por esto y trabajar para educar a las personas sobre las
Debe estar conectado para enviar un comentario.