Lamentablemente, en ocasiones las respuestas proporcionadas por las IA pueden ser inexactas o incluso inventadas cuando se trata de información menos conocida, situación que ocurrió con ChatGPT y que se repite con Bard.
Esto se debe a que las IA pueden tener acceso a una amplia cantidad de datos en línea, pero su capacidad para discernir la veracidad y la precisión de esa información aún está en desarrollo.
La IA de Google, Bard, aunque adaptada a las normas europeas y con acceso a Internet, todavía se considera experimental y su fiabilidad puede ser cuestionable.
Una de las características de Bard es la posibilidad de corregir y comentar las respuestas proporcionadas. Esto ha sido una práctica común en Google, donde las correcciones humanas han sido fundamentales para mejorar la precisión de las IA.
Aunque la IA es poderosa y avanza rápidamente, su progreso se debe en gran medida al trabajo humano.
Es cierto que Bard puede cometer errores y proporcionar respuestas incorrectas. Aunque no asegura ser precisa y ha realizado cambios para acentuar esta impresión al llegar a Europa.
Por ejemplo, Bard puede proporcionar información errónea sobre el contenido de un podcast o incluso ofrecer respuestas diferentes y contradictorias a una misma pregunta. Esto refleja que la IA aún se basa en la estadística y no siempre tiene una respuesta óptima para todas las preguntas.
La diferencia entre Google Bard y ChatGPT de OpenAI es que la primera tiene acceso a Internet, mientras que ChatGPT solo lo ofrece en su versión de pago.
Sin embargo, esto no evita que las IA puedan inventar respuestas incorrectas.
También te puede interesar: Google Bard deja fuera a la Unión Europea