Mostrando entradas con la etiqueta Gemini. Mostrar todas las entradas
Mostrando entradas con la etiqueta Gemini. Mostrar todas las entradas

viernes, 21 de febrero de 2025

Google presenta una IA cocientífica

Publicado en La Jornada
https://www.jornada.com.mx/noticia/2025/02/20/ciencia-y-tecnologia/google-presenta-una-ia-cocientifica-5676




Google presenta una IA cocientífica

Portaltic/Ep
20 de febrero de 2025 


Madrid. Google presentó AI co-scientist, una inteligencia artificial (IA) co-científica creada con Gemini 2.0, diseñada para ayudar a los científicos a la hora de generar nuevas hipótesis y propuestas de investigación, con el fin de acelerar la velocidad de los descubrimientos científicos y biométricos.

Habitualmente, los investigadores combinan su ingenio y creatividad con conocimientos, publicaciones científicas y experiencia, para generar nuevas direcciones de investigación y lograr avances científicos. Sin embargo, en muchos campos, la tasa de publicaciones científicas crece rápidamente y navegar entre éstas para lograr nuevas investigaciones se plantea como un desafío.

Asistencia, no automatización

Frente a este escenario, Google dio a conocer una nueva IA, a la que se refiere como AI co-scientist, que se basa en una herramienta colaborativa impulsada por la IA del modelo Gemini 2.0, capaz de ayudar a los expertos científicos a llevar a cabo tareas como recopilar información y perfeccionar su trabajo para acelerar los descubrimientos.

No obstante, según ha explicado la tecnológica en un comunicado en su blog de investigación, esta IA no ha sido ideada para automatizar el proceso científico de una investigación, sino que se ha planteado como una opción para asistir a los profesionales a la hora de generar nuevas hipótesis o plantear nuevas propuestas de investigación.

Para utilizar AI co-scientist, se puede especificar un objetivo de investigación mediante lenguaje natural, por ejemplo, comprender mejor la propagación de un microbio que causa enfermedades. Con base en ello, la IA propondrá hipótesis comprobables, junto con un resumen de la documentación publicada relevante y un posible enfoque experimental.

Igualmente, los científicos pueden interactuar de otras maneras con la IA, por ejemplo, aportando directamente sus propias ideas para la exploración u ofreciendo comentarios sobre los resultados generados en lenguaje natural.

Así, Google ha detallado que, en cuanto a su funcionamiento, este sistema de IA está construido sobre múltiples agentes basados en Gemini 2.0 y, con ello, logra reflejar el proceso de razonamiento que sustenta el método científico.

Concretamente, el proceso se basa en que la IA analiza el objetivo asignado en la configuración del plan de investigación, administrada por un supervisor, que, a su vez, asigna los agentes especializados a la cola de trabajo y establece recursos para llevar a cabo las tareas.

De esta forma, la IA cocientífica es capaz de sintetizar temas complejos y realizar una planificación y un razonamiento a largo plazo. Además, puede aprovechar la escalabilidad de los cálculos en tiempo de prueba para razonar, evolucionar y mejorar iterativamente en sus resultados.

Conocimientos nuevos y originales

La naturaleza agente del sistema facilita la autocrítica recursiva, incluido el uso de herramientas para la retroalimentación con el fin de refinar las hipótesis y las propuestas, ha puntualizado la tecnológica.

Por tanto, tal y como ha subrayado la compañía, además de revisar documentos científicos publicados, resumir y utilizar herramientas de deep research, este sistema está destinado a descubrir conocimientos nuevos y originales, así como formular hipótesis y propuestas de investigación demostrablemente novedosas, adaptándose a objetivos de investigación específicos.

Tanto es así que, según sus pruebas internas, las capacidades de la IA cocientífica para generar hipótesis novedosas y comprobables en diversos dominios científicos y biomédicos –algunas ya validades experimentalmente–, así como su capacidad de automejora recursiva con mayor capacidad de cómputo, demuestran su potencial para acelerar los esfuerzos de los científicos para abordar grandes desafíos en ciencia y medicina.

Con todo ello, Google señaló que los científicos que forman parte de su Programa de probadores de confianza tendrán acceso anticipado a esta nueva IA cocientífica para comenzar a probar sus capacidades.

viernes, 22 de noviembre de 2024

Una herramienta de Google permite detectar fácilmente la escritura generada por IA

Publicado en blog Universo abierto
https://universoabierto.org/2024/10/25/una-herramienta-de-google-permite-detectar-facilmente-la-escritura-generada-por-ia/


Una herramienta de Google permite detectar fácilmente la escritura generada por IA


«Google Tool Makes AI-Generated Writing Easily Detectable». New Scientist. Accedido 24 de octubre de 2024. https://www.newscientist.com/article/2452847-google-tool-makes-ai-generated-writing-easily-detectable/.

Google DeepMind ha desarrollado una técnica llamada watermarking que permite identificar texto generado por inteligencia artificial (IA) de manera automática. Esta tecnología, utilizada en las respuestas del chatbot Gemini, crea una especie de «marca» o firma en el texto que facilita distinguirlo del contenido escrito por humanos. La herramienta busca combatir el mal uso de los chatbots, como la propagación de desinformación y el fraude en entornos educativos y laborales.

El avance más reciente de Google es que ha hecho esta técnica disponible en código abierto, lo que permite que otros desarrolladores de IA puedan utilizarla en sus propios modelos de lenguaje. Pushmeet Kohli, de Google DeepMind, destaca que aunque esta tecnología, llamada SynthID, no es una solución definitiva, es un importante paso hacia la creación de herramientas más confiables para identificar contenido generado por IA.

La técnica funciona mediante un proceso llamado muestreo por torneo. Mientras el modelo genera una secuencia de texto, un algoritmo va guiando la selección de ciertas palabras (o tokens) que crean una firma estadística única. Este proceso aumenta la complejidad para quienes quieran eliminar o revertir esta marca. Según los investigadores de Google, este sistema ha sido probado en 20 millones de textos generados por Gemini sin que la calidad del texto se vea afectada, lo que demuestra su efectividad.

Sin embargo, los investigadores reconocen que esta técnica es más efectiva en textos largos que ofrecen múltiples formas de respuesta, como ensayos o correos electrónicos, y que no ha sido probada en tipos de respuestas más técnicas, como problemas de matemáticas o codificación. Además, expertos como Furong Huang de la Universidad de Maryland, señalan que un adversario con suficientes recursos computacionales podría eliminar estas marcas, aunque hacerlo requeriría un gran esfuerzo.

La herramienta también ha sido probada frente a otras técnicas de watermarking, y SynthID ha mostrado un mejor desempeño en la detección de contenido generado por IA. A pesar de su eficacia, Scott Aaronson, de la Universidad de Texas en Austin, advierte que ningún método de marcado es infalible, pero cree que puede ayudar a detectar una parte significativa de la desinformación o el engaño académico generado por IA.

Finalmente, los investigadores y expertos coinciden en que esta técnica es solo una parte de la solución y que se necesitan más salvaguardas contra el mal uso de los chatbots de IA. Furong Huang sugiere que la regulación gubernamental podría ayudar a hacer que el watermarking sea una medida estándar, asegurando un uso más seguro y confiable de los grandes modelos de lenguaje.

PAÍSES BAJOS: universidades van a la huelga por los recortes de austeridad

Publicado en University World News https://www.universityworldnews.com/post.php?story=20250306130546973 Las universidades planean una huelga...