• Login
HAZ UNA DONACION
SUSCRIBETE

No hay productos en el carrito.

Cambio16
  • Por un mundo más humano, justo y sostenible
No Result
View All Result
Cambio16
  • Por un mundo más humano, justo y sostenible
  • Login
Cambio16
Suscribete

>> Cambio16 > Ciencia & Tecnología > Los modelos de lenguaje de la IA cometen errores de percepción que afectan a la ciencia

Los modelos de lenguaje de la IA cometen errores de percepción que afectan a la ciencia

Mariela León by Mariela León
18/05/2022
in Ciencia & Tecnología
0
Noticias Basada en hechos, observados y verificados por el periodista o por fuentes. Incluye múltiples puntos de vista, sin la opinión del autor. Si incorpora análisis, se etiqueta como noticias y análisis.
Modelos de lenguaje de la IA

A los investigadores les preocupa que los flujos de lenguaje generados por computadoras puedan cometer errores y generar confusión en asuntos vinculados a la ciencia Pixabay

Las tecnologías emergentes de la Inteligencia Artificial se acercan cada vez más a la perfectibilidad al hacer investigaciones sesudas a partir de data. También realizan traducciones, escritos bien redactados y fluidos, pero estos modelos de lenguaje extenso de la IA aun cometen errores, que podrían cambiar la forma en que se hace ciencia

Los algoritmos de aprendizaje automático que generan un lenguaje fluido a partir de grandes cantidades de texto podrían cambiar la forma en que se hace ciencia. Pero no necesariamente para mejor, dijo Shobita Parthasarathy, especialista en gobernanza de tecnologías emergentes de la Universidad de Michigan en Ann Arbor.

Parthasarathy, y su equipo de investigadores intentan anticipar los impactos sociales de las tecnologías emergentes de IA llamadas modelos de lenguaje extenso (LLM).

Estos pueden producir una prosa sorprendentemente convincente, traducir entre idiomas, responder preguntas e incluso producir código. Las corporaciones que los crean, incluidas Google, Facebook y Microsoft, tienen como objetivo usarlos en chatbots. Y en motores de búsqueda, y para resumir documentos, dice un informe publicado en Nature.

Al menos una empresa, Debería, en San Francisco, California, está probando LLM en investigación. Está construyendo una herramienta llamada ‘Elicit’ para responder preguntas utilizando la literatura científica.

Estos modelos de la Inteligencia Artificial ya son controvertidos. A veces repiten errores o estereotipos problemáticos en los millones o miles de millones de documentos en los que están capacitados. Y a los investigadores les preocupa que los flujos de lenguaje generados por computadoras que no se distinguen de la escritura humana puedan causar desconfianza y confusión.

Parthasarathy comentó que los LLM podrían fortalecer los esfuerzos para comprender la investigación compleja. Pero también podrían profundizar el escepticismo público sobre la ciencia.

In a @Nature interview, @ShobitaP warns that while large language models could strengthen efforts to understand complex research, they could also deepen public skepticism of science.https://t.co/5nXD37jG6M

— Communications of the ACM (@CACMmag) May 3, 2022

Particularidades de los modelos de lenguaje de la IA

En entrevista con la publicación científica, Shobita Parthasarathy se refirió a los modelos de lenguaje de la IA. Dijo que confió que “originalmente había pensado que los LLM podrían tener impactos democratizadores y de empoderamiento. Cuando se trata de ciencia, podrían capacitar a las personas para extraer rápidamente información de la información. Consultando síntomas de enfermedades, por ejemplo, o generando resúmenes de temas técnicos”.

Pero los resúmenes algorítmicos podrían cometer errores. Incluir información desactualizada o eliminar matices e incertidumbres, sin que los usuarios lo aprecien. Si alguien puede usar LLM para hacer que la investigación compleja sea comprensible, puede correr el riesgo de obtener una visión simplificada e idealizada de la ciencia. Y que está en desacuerdo con la desordenada realidad. Esto, sin dudas, podría amenazar el profesionalismo y la autoridad.

También podría exacerbar los problemas de confianza pública en la ciencia. Y las interacciones de las personas con estas herramientas serán muy individualizadas. Y cada usuario obtendrá su propia información.

Señaló que es un gran problema el hecho de que los modelos puedan basarse en investigaciones obsoletas o poco confiables. Pero eso no significa que las personas no usarán LLM. Son atractivos y tendrán una apariencia de objetividad asociada con su producción fluida y su representación como nuevas tecnologías emocionantes. Es posible que el usuario medio no reconozca el hecho de que tienen límites, que pueden basarse en conjuntos de datos parciales o históricos.

Really proud to lead this study. Check out the 🧵 below to learn about our findings on the social, equity, environmenal, and scientific implications of LLMs! We also provide recommendations for policymakers and scientists, and a "code of conduct" for both LLM and app developers. https://t.co/YF4938bLMn

— Shobita Parthasarathy 👩🏾‍🏫🧪📚🎙️ (@ShobitaP) May 3, 2022

Es fácil para los científicos afirmar que son inteligentes y darse cuenta de que los LLM son herramientas útiles pero incompletas. Aún así, este tipo de herramienta podría reducir su campo de visión y podría ser difícil reconocer cuándo un LLM se equivoca en algo.

Tecnologías útiles en humanidades

La experta afirmó que los modelos de lenguaje extenso de la IA podrían ser útiles en humanidades digitales y en la literatura. Por ejemplo, para resumir lo que dice un texto histórico sobre un tema en particular. Pero los procesos de estos modelos son opacos y no proporcionan fuentes junto con sus resultados. Por lo tanto, los investigadores deberán pensar detenidamente cómo los van a utilizar. “He visto algunos usos propuestos en sociología y me ha sorprendido lo crédulos que han sido algunos académicos”, dijo a Nature.

Cree que las grandes editoriales científicas estarán en la mejor posición para desarrollar LLM específicos de ciencia. Adaptados de modelos generales, capaces de rastrear el texto completo patentado de sus artículos. También podrían buscar automatizar aspectos de la revisión por pares, como consultar textos científicos para averiguar quién debe ser consultado como revisor. Los LLM también pueden usarse para tratar de seleccionar resultados particularmente innovadores en manuscritos o patentes, y tal vez incluso para ayudar a evaluar estos resultados.

Los editores también podrían desarrollar software LLM para ayudar a los investigadores en países de habla no inglesa a mejorar su prosa.

Compelling new research from @ShobitaP and her @STPP_UM colleagues on the promise and pitfalls of massive machine-learning algorithms. She shares her insights with Nature. https://t.co/qjDIxequiY

— Jeff Karoub (@jeffkaroub) April 28, 2022

En su opinión “los editores pueden llegar a acuerdos de licencia, por supuesto. Poniendo su texto a disposición de las grandes empresas para que lo incluyan en su corpus. Pero creo que es más probable que intenten mantener el control. Si es así, sospecho que los científicos, cada vez más frustrados por sus monopolios del conocimiento, lo cuestionarán. Existe cierto potencial para los LLM basados ​​en documentos de acceso abierto y resúmenes de documentos de pago. Pero puede ser difícil obtener un volumen grande de texto científico actualizado de esta manera”.

Capacitación y regulación

En el análisis de los modelos de lenguaje extenso de la IA, Parthasarathy adelantó que algunas personas usarán LLM para generar documentos falsos o casi falsos. Si es fácil y creen que les ayudará en su carrera. Aún así, eso no significa que la mayoría de los científicos, que quieren ser parte de las comunidades científicas, no podrán ponerse de acuerdo sobre las regulaciones y normas para el uso de LLM.

“Es fascinante para mí que casi ninguna herramienta de IA haya sido sometida a regulaciones sistemáticas. O mecanismos de mantenimiento de estándares”, refirió. “Eso también es cierto para los LLM: sus métodos son opacos y varían según el desarrollador. En nuestro informe, hacemos recomendaciones para que los organismos gubernamentales intervengan con la regulación general”.

Específicamente para el posible uso de LLM en la ciencia, la transparencia es crucial. Aquellos que desarrollan LLM deben explicar qué textos se han utilizado y la lógica de los algoritmos involucrados. Y deben ser claros acerca de si se ha utilizado software de computadora para generar un resultado. Creemos que la Fundación Nacional de Ciencias de EE UU también debería apoyar el desarrollo de un LLM capacitado en todos los artículos científicos disponibles públicamente.

Y los científicos, asentó, deben tener cuidado con las revistas o los financiadores que confían en los LLM para encontrar revisores pares. O (posiblemente) extender este proceso a otros aspectos de la revisión, como la evaluación de manuscritos o subvenciones. Debido a que los LLM se desvían hacia los datos anteriores, es probable que sean demasiado conservadores en sus recomendaciones.

Lee también en Cambio16.com:

La inteligencia artificial no reemplaza a un escritor, pero lo ayuda a ser mejor

Suscríbete y apóyanos «Por un mundo más humano, justo y regenerativo»

Gracias por leer Cambio16. Vuestra suscripción no solo proporcionará noticias precisas y veraces, sino que también contribuirá al resurgimiento del periodismo en España para la transformación de la conciencia y de la sociedad mediante el crecimiento personal, la defensa de las libertades, las democracias, la justicia social, la conservación del medio ambiente y la biodiversidad.

Dado que nuestros ingresos operativos se ven sometidos a una gran presión, su apoyo puede ayudarnos a llevar a cabo el importante trabajo que hacemos. Si puedes, apoya a Cambio16 ¡Gracias por tu aportación!

  • Revista 2288

    4,00€
    Añadir al carrito
  • Revista 2288 (Digital)

    2,30€
    Añadir al carrito
  • ¡Oferta!

    Revista 2288 Suscripción Digital

    23,00€ 19,90€
    Añadir al carrito
  • ¡Oferta!

    Revista 2288 Suscripción Total

    40,00€ 36,00€
    Añadir al carrito
Tags: Inteligencia ArtificialLiteratura y ciencia en la IAModelos de lenguaje de la IATecnologías emergentes de la IA
Artículo anterio

Las aves son las primeras víctimas de una ola de calor en la India, caen por miles del cielo sin vida

Próximo artículo

Programa Artemis de la NASA pide recursos para volver a la Luna

Citations & References:

How language-generation AIs could transform science. Nature.com

Dateline:

Madrid, España

Conforme a los criterios de
Saber más

Areas of Expertise:

Mundo
Economía
Energía

Location Expertise:

Venezuela
Madrid, España
Iberoamérica

Official Title:

Subcoordinadora y redactora de Cambio16

Phone Number:

+34 914 201 199

Email Address:

mariela.leon@cambio16.com

Mariela León

Mariela León

Venezolana radicada en Venezuela. Licenciada en Comunicación Social en la Universidad Católica Andrés Bello. Subcoordinadora y redactora de las versiones digitales e impresas de Cambio16 y Energía16. Redactora de la revista Cambio Financiero. Con gran experiencia en la cobertura de las fuentes Ciudad, Educación, Iglesia, Laboral, Partidos Políticos, Cancillería, Parlamento y Palacio de Gobierno, para periódicos como El Mundo, Reporte de la Economía y El Universal. Membresía: Asociación de Revistas ARI, Colegio Nacional de Periodistas (CNP) y Sindicato Nacional de la Prensa de Venezuela (SNTP).

Articulos Relacionados

envoltorio alimentos
Ciencia & Tecnología

Envoltorio biodegradable y antimicrobiano conserva los alimentos y reduce los desperdicios

04/07/2022
Los medios de comunicación pueden contribuir a que las personas con riesgo de suicidio decidan seguir viviendo y ayudar a disminuir la cifra. Foto Pixabay
Medicina y Salud

Los medios pueden hacer que las personas con riesgo de suicidio decidan seguir viviendo

01/07/2022
aliento autenticación biométrica
Ciencia & Tecnología

El aliento, otra herramienta biométrica

25/06/2022
Cannabis enfermedades
Medicina y Salud

El vapeo de cannabis agrava la dependencia

04/07/2022
Next Post
volver a la luna

Programa Artemis de la NASA pide recursos para volver a la Luna

ROBA_1

TRUSTPROJECT

Conforme a los criterios de
Saber más

ROBA_2

RECTANGULO3:1

ROBA_3

SUSCRIBETE C16

APÚNTATE AQUÍ A TU SUSCRIPCIÓN

ROBA_4

ROBA_5

OUTBRAIN

Cambio16

© 2020 Cambio16 - Premium WordPress news & magazine theme by cambio16.

Navigate Site

  • Grupo EIG Multimedia S.L.
  • Términos y condiciones de uso
  • Política de privacidad
  • Política de cookies
  • Política Editorial – The Trust Project
  • Contactar

Siguenos

No Result
View All Result
  • Inicio
  • Mi Perfil
  • Tienda
  • Medioambiente y Biodiversidad
  • Acciones de concienciación
  • Cambio16
  • Energía16
  • Cambio16 TV
  • Ciencia & Tecnología
  • España
  • Política
  • Mundo
  • Cambio Financiero
  • Cultura
  • Sociedad
  • Clima16
  • #C16Denuncia: Noticias de derechos humanos
  • Cataluña
  • Venezuela
  • Firmas
  • Lifestyle
  • Deportes
  • Contactar
  • Salir

© 2020 Cambio16 - Premium WordPress news & magazine theme by cambio16.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In