Un arma secreta para robots sexuales
Un arma secreta para robots sexuales
Blog Article
La industria de la robótica sexual con IA está comenzando a despegar.
Surgen así preguntas innovadoras y de difícil respuesta... y consecuencias inesperadas.
Publicación promocional de la empresa Replika.
Replika se ha convertido en el servicio de compañía con IA más destacado, con el cual millones de usuarios, cerca de 30 millones, pueden generar parejas digitales a medida, incluyendo novias o novios.
La IA se está haciendo más personal que nunca.
Los chatbots están diseñados para parecerse a las interacciones humanas y la proliferación de los chats de voz realistas está conduciendo a que más usuarios a crear vínculos emocionales o a gozar de situaciones amenas junto a los anfitriones de IA en podcasts.
Sin ir todavía a lo estrictamente íntimo.
Los estudios muestran que el roleplay sexual se ha convertido en uno de los usos frecuentes de ChatGPT.
IA como Replika, Character.AI y Chai.AI se han vuelto populares como opciones de compañía virtual.
¿Hacia dónde llevará esto el futuro de las relaciones humanas? Las predicciones no son optimistas.
Es posible que convenga mostrarse amistosos con la IA.
El popular servicio de compañía de IA Replika permite que unos 30 millones de usuarios diseñen novias o novios virtuales a su gusto.
Según los primeros estudios, la mayoría de usuarios de Replika son hombres caucásicos menores de 30, pero otras demografías empiezan a alcanzarlos.
Los robots sexuales para hombres llevan un tiempo en evolución.
Y están diseñados para ofrecer algo más que las funciones de un vibrador estándar.
Al suscribirse, los usuarios pueden enviar mensajes cercanos o imágenes a sus compañeros de IA.
Antes de que Replika optara por deshabilitar su módulo de «juegos de rol eróticos» en los primeros meses de 2023, más de medio millón de usuarios ya estaban suscritos.
Esta medida fue tomada por temor a una reacción adversa de las autoridades reguladoras.
Los usuarios apodaron a esta decisión de Replika como «La Lobotomía».
Amoríos digitales, deepfakes y deadbots: dentro del experimento de IA generativa que estamos viviendo.
La «lobotomía» de Replika pone de relieve una característica clave de los compañeros virtuales: sus creadores tienen control absoluto sobre su comportamiento.
Los desarrolladores de aplicaciones pueden ajustar o apagar a los «compañeros» de un usuario y de millones de otros en cualquier momento.
Además, estos sistemas examinan las palabras de los usuarios con el propósito de mejorar las futuras interacciones y ofrecer anuncios más personalizados.
Sin embargo, estas advertencias no parecen frenar al sector.
Nuevos productos siguen surgiendo.
Una empresa, Kindroid, ofrece ahora chats de voz con hasta 10 compañeros virtuales simultáneamente.
Lo digital ya está trascendiendo sus propios límites.
Empresas como Joy Love Dolls están ofreciendo robots sexuales interactivos de la vida real.
Las muñecas de Joy Love Dolls permiten personalizar detalles como el color de piel y el tamaño de pecho, pero también puedes controlar funciones como el movimiento, la calefacción y sonidos como gemidos, chillidos y coqueteos, lo que las hace ideales como compañeras.
Por ahora, aunque el mercado de los robots sexuales y los acompañantes virtuales con IA está ganando terreno, sigue siendo mucho menor que las redes sociales, con millones de usuarios en lugar de miles de millones.
La historia de Facebook, Google y Amazon nos ha mostrado que lo que hoy son caprichos digitales, mañana podrían ser los gigantes globales.
¿Estamos hacia novias basadas en AI de base ética?
Es probable que el surgimiento de relaciones románticas basadas en la tecnología de IA produzca todo tipo de comportamientos sin ética por parte de los individuos, que no tendrán que padecer las implicaciones en el mundo cotidiano.
Pronto podrás complacer tus más extrañas fantasías con tu compañera artificial a cambio de un precio extra. Cuando tu compañera se vuelve molesta, simplemente pedir al señor de la empresa que desactive su módulo de envidia, por un precio. O simplemente bórrala y empieza de cero con todas las chicas que quieras en de forma paralela.
La manera en que las personas las personas en general forman relaciones amorosas ya se ha visto alterada por aplicaciones de citas como servicios de citas como Tinder y Bumble.
¿Qué ocurrirá en el futuro si, en el futuro, las individuos que buscan el amor concursan contra amantes sintéticas perfectas que nunca dejan de estar disponibles y apetitosas? Bueno, al menos podrán generar copias virtuales de esas aventuras calientes que no pudieron.
Y para quienes carezcan de la habilidad para crear sus propios amantes digitales, habrá un montón de opciones disponibles en el mercado.
ABC Investigations ha descubierto cómo una red mundial de los llamados la inteligencia artificial apenas está comenzando «proxenetas de la inteligencia artificial» está recopilando en masa imágenes de mujeres en las redes sociales para vender material para adultos a través de influencers fraudulentos.
Una investigación de ABC reveló que el uso de IA generativa para crear influencers falsas mediante la manipulación de imágenes de mujeres en las redes sociales ya está muy popularizado. Esto se hace generalmente sin consentimiento para vender contenido sexual. Gran parte de este contenido muestra modelos corporales imposibles, y algunos muestran a niñas, en el mejor de los casos, apenas parecen tener edad para aceptar.
¿Otra posible aplicación? Emplear la inteligencia artificial para robots sexuales para recrear a celebridades como Marilyn Monroe o Clara Bow y Clara Bow. Al fin y al cabo, los muertos ya no pueden decir no.
Replika se creó en el deseo de su creadora de recrear a su mejor amiga fallecida a través de un sistema de chatbot. Muchos utilizan la aplicación para tener cerca a sus seres queridos fallecidos. ¡Qué tiempos para estar viva (o muerto)!
El potencial de influencia emocional por parte de ingeniosos personas astutas y dictadores es preocupante. Imaginemos los desastres que causaría que personajes como el ruso Vladimir Putin o el norcoreano líder de Corea del Norte aprovecharan esta tecnología para complementar las ya extensas operaciones de ciberespionaje de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo parejas de IA éticas para el consumidor más ético, cultivadas de manera responsable a partir de contenido consentido, promoviendo una obscenidad socialmente responsable.
La comunidad y el gobierno deben actuar ya. Con la solidaridad alcanzando niveles alarmantes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de interacción real), la demanda de robots sexuales no hará más que crecer. Las empresas cubrirán esta demanda a menos que la sociedad y el Estado pongan límites sobre lo que es correcto.
El sexo y la tecnología siempre han evolucionado conjuntamente. Al igual que la prostitución es «la profesión más antigua», los sitios porno son algunos de los rincones más más antiguos de la red. Sin embargo, el potencial apocalíptico de los robots sexuales para la explotación masiva, personalizada y gestionada por las grandes empresas de nuestra esfera más privada no tiene precedentes.
Los usuarios tampoco están totalmente libres de culpa. Sustituir a un ser humano real por una máquina de lujuria totalmente sumisa tiene algo de inmoral.
Los primeros estudios sugieren que el egoísmo prevalece entre los usuarios de esta tecnología. Permitir comportamientos sexuales nocivos como la acoso sexual, el comportamiento sadista o la pedofilia es una gran preocupación para la sociedad en general.
Sin embargo, perseguir a los consumidores no es la mejor manera de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente problemáticos como el consumo problemático.
Al igual que ocurre con otros comportamientos desviados en los que el problema reside más en los proveedores que en los personas, es hora de involucrar en responsabilidades a los productores de robots sexuales. Como nuestros lazos con la IA son cada vez más cercanos, no hay mucho margen de tiempo.