Las plataformas aparecen tanto en App Store como Google Play Store y pueden recoger información del usuario, además de usar un sistema de micro pagos.
Con el aumento de popularidad de la inteligencia artificial ChatGPT y la integración de esta en diferentes plataformas, se ha generado un problema que puede poner en riesgo la seguridad de los usuarios en internet. En las tiendas virtuales de Android y Apple han aparecido aplicaciones que se hacen pasar por versiones de este software.
A diferencia de las aplicaciones que incluyen inteligencia artificial entre sus funciones renovadas, estas simulan ser una edición de ChatGPT para celulares, aunque oficialmente OpenAI no haya trabajado en ninguna de ellas.
Ni en Google Play Store y tampoco en App Store el nombre del desarrollador se identifica como la compañía oficial creadora del chatbot.
Según el analista de ciberseguridad, Alex Kleber, estas plataformas tienen el objetivo de promocionarse como ChatGPT para ganar la confianza de los usuarios para usar un sistema de micro pagos que prometen desbloquear una serie de funciones que, finalmente, no llegan a cumplirse en los dispositivos.
Kleber indica que uno de los métodos más comunes de la plataforma para promocionarse en la App Store es que se solicita al usuario una evaluación de la aplicación a los pocos minutos de descargarse, lo que manipula la calificación real que tendría esta aplicación.
Para encontrar estas plataformas solo se debe introducir las palabras “OpenAI” o “ChatGPT” en el buscador de cualquiera de estas tiendas.
Los resultados tendrán en común el uso de colores e incluso logotipos similares a los que usa ChatGPT en su versión web con la intención de confundir a los usuarios. En ocasiones se verán imágenes promocionales que indicarán la implementación de GPT-4 (la inteligencia artificial más reciente desarrollada por OpenAI).
En el caso de App Store, las aplicaciones llegan a compartir desarrolladores como en el caso de las empresas “Pixelsbay” y “ParallelWorld” ubicadas en Pakistán, según el reporte de Kleber.
Además, es posible que si se analiza el código de programación de estas plataformas se encuentren similitudes de hasta el 99%. Es decir que se permitió la publicación y difusión de dos aplicaciones que en realidad son casi la misma.
Aunque el analista de ciberseguridad haya establecido malas prácticas en App Store, lo cierto es que en la tienda de aplicaciones de Android se presentan casos similares en las que algunas aplicaciones utilizan nombres similares a OpenAI o ChatGPT para promocionar sus servicios. Sin embargo, nuevamente ninguna de estas plataformas fue desarrollada por la compañía original.
Una forma de determinar si estas plataformas podrían ser potencialmente peligrosas o podrían poner en riesgo la privacidad del usuario es revisando la sección Seguridad de datos, ubicada en los detalles de la plataforma.
Muchas de ellas, por ejemplo, indican que si bien no recopilan información del dispositivo en el que son instaladas, pueden compartir datos con terceros. Otros que pueden aparecer en esta búsqueda, indican que aún cuando no recopilan datos ni los comparten, no permiten que la información generada pueda eliminarse.
En el caso de Ask AI, una de las aplicaciones de este estilo más populares, se indica que puede recoger información sobre el dispositivo, el rendimiento de la plataforma e incluso estadísticas sobre la activida del usuario durante el uso del programa.