- 7 minutos de lectura‘
El surgimiento de herramientas de inteligencia artificial generativa que permiten producir eficientemente reseñas en línea novedosas y detalladas con casi ningún esfuerzo ha colocado a comerciantes, proveedores de servicios y consumidores en un territorio inexplorado, según grupos de vigilancia e investigadores.
Las reseñas falsas han plagado desde hace tiempo muchos sitios web de consumo populares, como Amazon y Yelp. Generalmente, se intercambian en grupos privados de redes sociales entre intermediarios de reseñas falsas y negocios dispuestos a pagar. A veces, dichas reseñas son iniciadas por negocios que ofrecen incentivos como cupones a clientes a cambio de comentarios positivos.
Pero las herramientas de generación de texto infundidas con IA, popularizadas por ChatGPT de OpenAI, permiten a los estafadores producir reseñas más rápidamente y en mayor volumen, según expertos de la industria tecnológica.
La práctica engañosa, que es ilegal en Estados Unidos, se ve durante todo el año, pero se convierte en un problema mayor para los consumidores durante la temporada de compras navideñas, cuando muchas personas dependen de las reseñas para ayudarles a comprar regalos.
Se encuentran reseñas falsas en una amplia gama de industrias, desde comercio electrónico, alojamiento y restaurantes, hasta servicios como reparaciones del hogar, atención médica y clases de piano.
The Transparency Company, una empresa tecnológica y grupo de vigilancia que utiliza software para detectar reseñas falsas, dijo que comenzó a ver reseñas generadas por IA en grandes números a mediados de 2023 y se han multiplicado desde entonces.
Para un informe publicado este mes, The Transparency Company analizó 73 millones de reseñas en tres sectores: servicios para el hogar, legales y médicos. Casi el 14% de las reseñas eran probablemente falsas, y la empresa expresó un “alto grado de confianza” en que 2,3 millones eran parcial o totalmente generadas por IA.
“Es simplemente una herramienta realmente, realmente buena para estos estafadores de reseñas”, dijo Maury Blackman, un inversor y asesor de startups tecnológicas, quien revisó el trabajo de The Transparency Company y liderará la organización a partir del 1 de enero.
En agosto, la empresa de software DoubleVerify dijo que estaba observando un “aumento significativo” en aplicaciones de teléfonos móviles y televisores inteligentes con reseñas elaboradas por IA generativa. Las reseñas a menudo se utilizaban para engañar a los clientes para que instalaran aplicaciones que podrían secuestrar dispositivos o mostrar anuncios constantemente, dijo la empresa.
El mes siguiente, la Comisión Federal de Comercio (FTC) de EE.UU. demandó a la empresa detrás de una herramienta de escritura de IA y generador de contenido llamada Rytr, acusándola de ofrecer un servicio que podría contaminar el mercado con reseñas fraudulentas.
La FTC, que este año prohibió la venta o compra de reseñas falsas, dijo que algunos suscriptores de Rytr usaron la herramienta para producir cientos y quizás miles de reseñas para empresas de reparación de puertas de garaje, vendedores de bolsos y otros negocios.
Es probable que también estén en sitios en línea prominentes
Max Spero, CEO de la empresa de detección de IA Pangram Labs, dijo que el software que utiliza su empresa ha detectado con casi certeza que algunas evaluaciones generadas por IA publicadas en Amazon subieron al tope de los resultados porque eran tan detalladas y parecían bien pensadas.
Pero determinar qué es falso o no puede ser un desafío. Las partes externas pueden quedarse cortas porque no tienen “acceso a señales de datos que indiquen patrones de abuso”, ha dicho Amazon.
Pangram Labs ha realizado detecciones para algunos sitios web prominentes, que Spero se negó a nombrar debido a acuerdos de confidencialidad. Dijo que evaluó Amazon y Yelp de manera independiente.
Muchos de los comentarios generados por IA en Yelp parecían haber sido publicados por individuos que intentaban publicar suficientes reseñas para ganar una insignia “Elite”, que está destinada a hacer saber a los usuarios que pueden confiar en el contenido, dijo Spero.
La insignia proporciona acceso a eventos exclusivos con propietarios de negocios locales. Los estafadores también la quieren para que sus perfiles en Yelp parezcan más realistas, dijo Kay Dean, una ex investigadora criminal federal que dirige un grupo de vigilancia llamado Fake Review Watch.
Sin embargo, solo porque una reseña sea generada por IA no significa necesariamente que sea falsa. Algunos consumidores podrían usar la IA para generar contenido que refleje sus sentimientos genuinos. Algunas personas que no hablan bien inglés podrían recurrir a la IA para usar un lenguaje más preciso en las reseñas que escriben.
“Puede ayudar con las reseñas (y) hacerlas más informativas si provienen de buenas intenciones”, dijo Sherry He, profesora de marketing de la Universidad Estatal de Michigan, quien ha investigado reseñas falsas. Dice que las plataformas tecnológicas deberían enfocarse en los patrones de comportamiento de los actores maliciosos, lo cual ya hacen las plataformas prominentes, en lugar de desalentar a los usuarios legítimos de recurrir a herramientas de IA.
Las empresas prominentes están desarrollando políticas sobre cómo el contenido generado por IA encaja en sus sistemas para eliminar reseñas falsas o abusivas. Algunas ya emplean algoritmos y equipos de investigación para detectar y eliminar reseñas falsas, pero están dando a los usuarios cierta flexibilidad para usar IA.
Portavoces de Amazon y Trustpilot, por ejemplo, dijeron que permitirían a los clientes publicar reseñas asistidas por IA siempre que reflejen su experiencia genuina. Yelp ha adoptado un enfoque más cauteloso, diciendo que sus normas requieren que las reseñas sean totalmente auténticas.
“Con el reciente aumento en la adopción de herramientas de IA por parte de los consumidores, Yelp ha invertido significativamente en métodos para detectar y mitigar mejor dicho contenido en nuestra plataforma”, dijo la empresa en un comunicado.
La Coalición para Reseñas Confiables — que Amazon, Trustpilot, el sitio de reseñas de empleo Glassdoor y los sitios de viajes Tripadvisor, Expedia y Booking.com lanzaron el año pasado — dijo que aunque los engañadores pueden usar la IA para fines ilícitos, la tecnología también presenta “una oportunidad para contrarrestar a aquellos que buscan usar reseñas para engañar a otros”.
“Al compartir mejores prácticas y elevar los estándares, incluido el desarrollo de sistemas avanzados de detección de IA, podemos proteger a los consumidores y mantener la integridad de las reseñas en línea”, dijo el grupo.
La regla de la FTC que prohíbe las reseñas falsas, que entró en vigor en octubre, permite a la agencia multar a empresas e individuos que participen en la práctica. Las empresas tecnológicas que alojan dichas reseñas están protegidas porque no son legalmente responsables bajo la ley de Estados Unidos por el contenido que publican terceros en sus plataformas.
Las empresas tecnológicas, incluidas Amazon, Yelp y Google, han demandado a intermediarios de reseñas falsas a quienes acusan de vender reseñas falsas en sus sitios. Las empresas dicen que su tecnología ha bloqueado o eliminado una gran cantidad de reseñas sospechosas y cuentas sospechosas. Sin embargo, algunos expertos dicen que podrían estar haciendo más.
“Sus esfuerzos hasta ahora no son suficientes”, dijo Dean, de Fake Review Watch. “Si estas empresas tecnológicas están tan comprometidas con eliminar el fraude de reseñas en sus plataformas, ¿por qué soy yo, una persona que trabaja sin automatización, capaz de encontrar cientos o incluso miles de reseñas falsas en cualquier día dado?”
Los consumidores pueden intentar detectar reseñas falsas observando algunas posibles señales de advertencia, según investigadores. Reseñas excesivamente entusiastas o negativas son señales de alerta. El uso de jerga que repite el nombre completo o el número de modelo de un producto es otro posible indicio.
En cuanto a la IA, la investigación realizada por Balázs Kovács, profesor de comportamiento organizacional de Yale, ha mostrado que las personas no pueden distinguir entre reseñas generadas por IA y escritas por humanos. Algunos detectores de IA también pueden ser engañados por textos más cortos, que son comunes en reseñas en línea, dijo el estudio.
Sin embargo, hay algunos “indicios de IA” que los compradores deberían tener en cuenta. Panagram Labs dice que las reseñas escritas con IA suelen ser más largas, altamente estructuradas e incluyen frases y atributos genéricos. Las reseñas también tienden a incluir clichés como “lo primero que me llamó la atención” y “esto fue revolucionario”.
Con información de AP
LA NACION
Temas
Conforme a los criterios de