Connect with us

Tecnología

Esta IA detecta la chatarra de la ciencia: “Es como un antivirus para el conocimiento”

Published

on

Especialistas crearon un sistema que busca revistas científicas reñidas con la rigurosidad, a las que acusan de recibir dádivas a cambio de la publicación. “Buscamos mantener fuertes los cimientos”, dicen.

Si bien las nuevas herramientas de Inteligencia Artificial Generativa se han asociado, con argumentos válidos, al contenido engañoso y a las falsedades; un nuevo sistema de IA procura sumar rigurosidad a la escena científica. Se trata de una plataforma que busca en forma automatizada revistas con artículos cuestionables. Son publicaciones que integran un ecosistema en el que circulan dádivas debajo de la mesa y estrategias para eludir el escrutinio de los expertos.

“Hay un esfuerzo creciente entre científicos y organizaciones para verificar estas revistas”, señala Daniel Acuña, autor del estudio y profesor asociado del Departamento de Ciencias de la Computación de la Universidad de Colorado en Boulder, Estados Unidos. La imagen que elige es elocuente: “Es como jugar a golpear topos: atrapás a uno y luego aparece otro, generalmente de la misma empresa. Simplemente, crean un nuevo sitio web y le dan un nuevo nombre”.

La plataforma de IA que desarrollaron, cuyo funcionamiento se detalló recientemente en Science Advances, aborda esta tendencia alarmante en la ciencia. La clave es la detección automatizada de revistas ayunas de rigor, que abundan y se reproducen, en muchos casos pidiendo dinero a investigadores ávidos por publicar, a cualquier precio.

“En ciencia, se construye sobre cimientos”

Acuña cuenta que varias veces en la semana recibe mensajes en su bandeja de entrada de remitentes que se hacen pasar por editores de revistas científicas. Los descarta, porque jamás oyó hablar de esas plataformas. Además, una variable las deschava: piden dinero a cambio de la publicación. El investigador las describe como “depredadoras”: son aquellas que divulgan artículos con pretensiones científicas, pero sin la debida revisión por pares.

“Hay un esfuerzo creciente entre científicos y organizaciones para verificar estas revistas”, señala Daniel Acuña, autor del estudio. (Foto: colorado.edu)
“Hay un esfuerzo creciente entre científicos y organizaciones para verificar estas revistas”, señala Daniel Acuña, autor del estudio. (Foto: colorado.edu)

“En ciencia, no se empieza desde cero. Se construye sobre la base de la investigación de otros”, enfatiza Acuña al respecto. “Si los cimientos de esa torre se derrumban, todo se derrumba”, advierte.

El sistema que creó el equipo de la universidad estadounidense identifica una serie de patrones en las revistas científicas chatarra para, al reconocerlos, poner el grito en el cielo.

¿Cómo funciona la IA que detecta la basura de la ciencia?

“Las revistas cuestionables amenazan la integridad de la investigación global, y las verificaciones manuales puede ser lentas y poco flexibles”, notaron los autores en su estudio. La plataforma que diseñaron propone una solución, valiéndose del potencial de la IA y de su mirada de amplio espectro.

En la práctica, el sistema examina diversas variables en las publicaciones, comenzando por el contenido y eventuales errores gramaticales, pasando por detalles del diseño web, hasta los metadatos, la información que está detrás de aquello que es visible para los internautas. Además, se contemplan aspectos, como la cantidad de artículos: las depredadoras, dicen, acostumbran sacar muchos al mes.

La clave del sistema es la detección automatizada de revistas ayunas de rigor, que abundan y se reproducen, en muchos casos pidiendo dinero a investigadores ávidos por publicar. (Foto: Creada con ChatGPT)
La clave del sistema es la detección automatizada de revistas ayunas de rigor, que abundan y se reproducen, en muchos casos pidiendo dinero a investigadores ávidos por publicar. (Foto: Creada con ChatGPT)

Nuestro método logra una precisión práctica y revela indicadores de legitimidad de las revistas que antes se pasaban por alto. Al ajustar el umbral de decisión, puede priorizar una revisión exhaustiva o una identificación precisa y con bajo nivel de ruido”, aseguran.

Las primeras pruebas del modelo fueron auspiciosas, con más de 1.000 revistas sospechosas identificadas que reúnen miles de artículos y reciben millones de citas. En ellas, encontraron puntos débiles como libros clasificados erróneamente y títulos discontinuados. “Nuestros hallazgos demuestran el potencial de la IA para realizar verificaciones de integridad escalables, a la vez que resaltan la necesidad de combinar la automatización con la revisión humana”, cierran los especialistas.

El sistema no es perfecto: la intervención humana sigue siendo clave

“En una época en la que figuras prominentes de la sociedad cuestionan la legitimidad de la ciencia, frenar la proliferación de publicaciones cuestionables se ha vuelto más importante que nunca”, sostiene Acuña. El profesor de Ciencias de la Computación remarca que, en última instancia, siempre será necesario que las decisiones sean tomadas por humanos.

El sistema de IA que identifica la chatarra de la ciencia, que es descripto como un “antivirus para el conocimiento” riguroso, no es de acceso público, pero sus creadores lo pondrán a disposición de editoriales y universidades, informó Eureka Alert. Acuña reconoce que aún hay variables para mejorar. “Como informático, habitualmente uso como ejemplo el lanzamiento de un smartphone. Sabemos que el software puede tener fallas, pero también que se pueden corregir en el futuro. En la ciencia, probablemente deberíamos hacer lo mismo”, cierra.

Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

Así es la nueva función con inteligencia artificial de Snapchat: sirve para crear imágenes al instante

Published

on

La herramienta pone en manos de los usuarios la posibilidad de crear, editar y compartir fotos con solo escribir unas palabras.

Snapchat, aplicación y red social que tuvo su apogeo hace unos años, quiere volver a los primeros puestos de preferencia entre los más jóvenes. Por eso reforzó su apuesta por la inteligencia artificial.

Esta semana la app lanzó Imagine Lens, una nueva función que permite generar imágenes a partir de simples indicaciones de texto.

La herramienta está diseñada para que los usuarios puedan transformar ideas, ocurrencias o descripciones en imágenes únicas, de manera rápida y sencilla.

Así es la nueva función con inteligencia artificial de Snapchat: sirve para crear imágenes al instante. (Foto: Reuters/Dado Ruvic)
Así es la nueva función con inteligencia artificial de Snapchat: sirve para crear imágenes al instante. (Foto: Reuters/Dado Ruvic)

Cómo funciona Imagine Lens

La dinámica de esta función es muy intuitiva: basta con escribir lo que se quiere ver. Por ejemplo, “un perro con cara de tierno”. O también: “Convertime en un corredor de autos”. La IA creará entonces la imagen correspondiente de forma automática.

Además, la plataforma ofrece sugerencias predefinidas que facilitan la inspiración, como “dibujame en estilo caricatura” o “quiero verme como un personaje de ciencia ficción”.

La herramienta permite editar y ajustar las indicaciones en cualquier momento, y así generar resultados nuevos al instante. Una vez que la imagen está lista, se puede compartir con amigos, subir a la Story o guardarla para usar fuera de la app.

Tecnología detrás de la función de IA de Snapchat

La creación de imágenes utiliza una combinación de modelos de IA propios de Snapchat y soluciones de generación de imágenes de vanguardia del sector. Según la compañía, esta integración permite que los usuarios tengan total libertad creativa, a diferencia de otras lentes que limitan las opciones a efectos predefinidos.

En los últimos meses, Snapchat intensificó su apuesta por la inteligencia artificial y la realidad aumentada. Tras el lanzamiento de lentes de video generativo y herramientas que facilitan la creación de lentes personalizadas, Imagine Lens se suma como la opción que permite generar contenido visual de manera rápida, divertida y completamente personalizable.

Cuál será el precio de la IA de Snapchat

Imagine Lens está disponible de manera exclusiva para suscriptores de Snapchat+ Platinum (US$ 15,99/mes) y Lens+ (US$ 8,99/mes). Estas modalidades premium brindan acceso prioritario a funciones avanzadas y contenidos exclusivos, consolidando la estrategia de Snapchat de ofrecer experiencias innovadoras dentro de la plataforma.

Más allá de las imágenes: IA y lectura

La innovación de Snapchat también se extiende a la lectura. Con la iniciativa Augmented Reading, la compañía busca revitalizar este hábito a través de la realidad aumentada y gafas Spectacles con Snap OS. El proyecto, desarrollado junto a la Biblioteca Nacional de Singapur y la agencia creativa LePub Singapore, permite que los usuarios interactúen con textos impresos mediante efectos visuales y sonoros, creando una experiencia literaria inmersiva.

Gracias a machine learning y el reconocimiento de texto, las Spectacles pueden escanear páginas y proyectar elementos audiovisuales que amplifican la narrativa. El objetivo es enriquecer la lectura tradicional y atraer a nuevos públicos, especialmente jóvenes, mediante experiencias interactivas y compartibles.

Con Imagine Lens y Augmented Reading, Snapchat refuerza su estrategia de combinar inteligencia artificial y realidad aumentada para dar a los usuarios herramientas creativas y experiencias únicas, consolidando su posición como una de las redes sociales más innovadoras en el uso de tecnologías emergentes.

Continue Reading

Tecnología

ChatGPT emitirá alertas cuando los menores de edad tengan conversaciones delicadas o riesgosas

Published

on

OpenAI implementará herramientas de supervisión para proteger a los chicos en sus chats con la inteligencia artificial. La intención es priorizar la salud mental y el bienestar digital.

La popularidad de ChatGPT entre jóvenes y estudiantes creció de manera vertiginosa en los últimos meses. Pero esta tendencia también encendió alertas sobre los riesgos que implica para los menores mantener conversaciones delicadas con una inteligencia artificial (IA).

Después de varios casos mediáticos que involucraron situaciones extremas, OpenAI decidió reforzar la seguridad de su plataforma y agregar controles parentales, además de un sistema de alarmas que detecta señales de peligro emocional en tiempo real.

El plan de seguridad de la empresa de Sam Altman no solo agrega filtros automáticos al chatbot, sino que se apoya en un Consejo de Expertos en bienestar y salud mental y en una Red Global de Médicos que colaboran directamente con la compañía.

OpenAI implementará herramientas de supervisión para proteger a los chicos. (Foto: Creada con ChatGPT).
OpenAI implementará herramientas de supervisión para proteger a los chicos. (Foto: Creada con ChatGPT).

La salud mental en la mira de ChatGPT

Los especialistas en psicología advirtieron a OpenAI que la relación de los adolescentes con la inteligencia artificial puede generar desórdenes mentales inéditos. La incapacidad del chatbot para contradecir al usuario puede alimentar ilusiones o delirios, especialmente cuando los menores atraviesan estados de vulnerabilidad emocional.

Es por eso que el objetivo del grupo profesional que se sumó a OpenAI es doble: definir reglas de interacción que protejan a los adolescentes en contextos vulnerables, como depresión, ansiedad, trastornos de la conducta alimentaria o adicciones, y orientar el desarrollo de la IA para que se convierta en un recurso útil y seguro, en lugar de un riesgo.

Según la empresa, es necesario explorar cómo la inteligencia artificial puede apoyar al bienestar humano y ofrecer herramientas que promuevan una vida más saludable.

Modelos especializados y alertas en tiempo real

Una de las novedades técnicas del chatbot será un enrutador capaz de redirigir la conversación hacia el modelo de IA más apropiado según el tema tratado. Por ejemplo, si un menor comienza a hablar sobre situaciones de angustia o pensamientos negativos, ChatGPT podrá activar un modelo especializado, como GPT-5 o modelos de razonamiento, que ofrezcan respuestas más pausadas, empáticas y orientadas a la ayuda.

Este sistema pretende evitar respuestas automáticas o poco sensibles en temas delicados, fomentar mensajes de contención, apoyo y, si es necesario, derivar a recursos de ayuda reales.

Funciones de control parental

Los padres también podrán intervenir directamente mediante herramientas diseñadas para supervisar el uso que hacen sus hijos de la IA:

  • Vincular sus cuentas con la de los adolescentes para monitorear su interacción con ChatGPT.
  • Establecer reglas de comportamiento que regulen cómo responde el chatbot en determinadas situaciones.
  • Gestionar funciones sensibles, como la memoria de las conversaciones o el historial, con la posibilidad de desactivarlas para proteger la privacidad.
  • Recibir alertas cuando el sistema detecte que el menor está en un estado emocional de alto riesgo.

Estas medidas no solo limitan la exposición a contenidos dañinos, sino que ofrecen a las familias mecanismos para intervenir a tiempo en situaciones preocupantes.

Un cambio impulsado por la realidad

El refuerzo de la seguridad ocurre después del caso de Adam Raine, un joven de 16 años que se quitó la vida en abril y esa decisión fue atribuida en parte a las conversaciones que mantenía con ChatGPT. Sus padres presentaron una denuncia contra OpenAI y promovieron un debate público sobre el papel de la inteligencia artificial en la vida de los menores.

Si bien la compañía no habló directamente sobre ese caso, reconoció la necesidad de identificar crisis emocionales en tiempo real, bloquear respuestas que puedan agravar la situación y facilitar el contacto con servicios de emergencia o familiares.

Hacia un uso responsable de la IA

La incorporación de controles parentales en ChatGPT marca un importante cambio en la forma en que las grandes tecnológicas abordan la relación entre menores y herramientas de inteligencia artificial.

El objetivo no es solo limitar el acceso a ciertos contenidos, sino crear un entorno digital más empático, supervisado y responsable.

Queda por verse si estas medidas serán suficientes para proteger a los adolescentes en un contexto en el que la tecnología avanza más rápido que las regulaciones. Para OpenAI, este paso representa un compromiso con un futuro en el que la IA no solo sea un recurso de productividad o entretenimiento, sino también una herramienta segura y alineada con el bienestar humano.

Continue Reading

Tecnología

WhatsApp alertó a los usuarios de iPhone por un ciberataque sofisticado y de precisión

Published

on

Meta pidió actualizar el mensajero en iOS tras identificar una vulnerabilidad que apunta a individuos específicos. ¿Qué pasos seguir para estar protegido?

Meta, dueño de WhatsApp, encendió las alarmas entre aquellos que usan el servicio de mensajería en iOS, es decir, en los iPhone. La compañía estadounidense apuró a instalar una actualización para emparchar un agujero de seguridad que podría emplearse para un ciberataque sofisticado y de precisión.

WhatsApp: alerta entre los usuarios del mensajero en iOS por un ataque dirigido

“Investigamos esta falla, en combinación con una vulnerabilidad a nivel de sistema operativo en las plataformas de Apple, que podría haber sido explotada en un ataque sofisticado contra usuarios específicos”, detallaron desde Meta en el aviso que envió a los usuarios potencialmente comprometidos por la brecha denominada CVE-2025-55177.

Los responsables de la app explicaron que algunos usuarios recibieron mensajes maliciosos a través de WhatsApp que, combinados con otras vulnerabilidades del sistema operativo iOS, podrían comprometer la seguridad del dispositivo y los datos que contiene, incluidos los mensajes.

La vulnerabilidad afectó a usuarios específicos en iOS, además de en macOS. (Foto: Pixabay/Vika Glitter)
La vulnerabilidad afectó a usuarios específicos en iOS, además de en macOS. (Foto: Pixabay/Vika Glitter)

La falla podría haber “permitido a un intruso activar el procesamiento de contenido desde una URL en el dispositivo de un objetivo”, indicaron desde WhatsApp. En criollo, los atacantes usan enlaces fraudulentos, aparentemente inofensivos, para inyectar programas maliciosos y de espionaje en los equipos de las víctimas.

“Si bien no sabemos con certeza si su dispositivo ha sido comprometido, queremos informarle por precaución para que pueda tomar medidas para proteger su dispositivo e información”, se lee en la advertencia.

La gravedad de este caso se incrementa por el hecho de que se trata de un ataque de clic cero, conocido de ese modo porque no requiere que la víctima interactúe con clic o toques en la pantalla: todo ocurre en forma automatizada.

Según informó Bitdefender, aún no fueron identificados los atacantes detrás de esta campaña que se dirigió a usuarios específicos en iOS y macOS, por un lapso de tres meses.

Vulnerabilidad en WhatsApp: ¿qué hacer para proteger los dispositivos y los datos?

La clave para estar a resguardo es la actualización, tanto del mensajero como del sistema operativo. En este punto, los especialistas en seguridad informática pidieron instalar la versión de WhatsApp para iOS 2.25.21.73 y, en macOS, la 2.25.21.78.

Finalmente, representantes de Amnistía Internacional recomendaron también tomar precauciones en Android, descargando la versión de la app más reciente.

Continue Reading

TENDENCIAS

Copyright © E-GRUPOCLAN - PUERTO MADERO - ARGENTINA