Foto: FUDE

Ocho proyectos de Inteligencia Artificial fueron revelados por Samsung, bajo el programa ‘C-Lab (Creative Lab)’. Por su parte, un experimento realizado por Google y la Universidad de Stanford, diseñó una ‘red neuronal’ que buscó como objetivo conseguir imágenes satelitales y traducirlas, a través de la inteligencia artificial en mapas. Lo impresionante es que el experimento descubrió que la ‘red neuronal’ ¡les ocultaba cierta información! La inteligencia artificial, también ha revolucionado las herramientas en el periodismo.

Básicamente a través de los algoritmos. La tecnologías cognitivas [capacidad de las máquinas para tomar decisiones inteligentes, a partir del análisis estadístico de millones de dato en tiempo real], permiten extraer información y jerarquizarla con análisis predictivos para proporcionar al usuario de Internet conocimientos más profundos sobre ciertos tópicos específicos de la información que usualmente consume. Estos algoritmos se encuentran en cada vez más sitios de la Web y son la base de los buscadores de noticias, de las redes sociales o de los servidores de publicidad, que muestran anuncios en medios digitales. Los algoritmos han sido empleados en matemáticas, lógica, informática y disciplinas relacionadas. Las más importantes plataformas de consumo audiovisual [Netflix, YouTube, etc.], sugieren contenidos personalizados, precisamente bajo el uso de la inteligencia artificial.
Se trata fundamentalmente de información procesada mediante algoritmos. Facebook, por ejemplo, utiliza un algoritmo para controlar el muro de publicaciones y muestra al usuario lo que algorítmicamente supone que apetece visualizar al usuario, basado en los me gusta, búsquedas, amigos y visitas anteriores a perfiles. Otro caso es el de YouTube, donde su robot coteja las reproducciones, acciones, referencias, comentarios y la duración media de visualización por cada usuario, para mostrarle sugerencias de contenido personalizado con base en sus registros de preferencias de consumo. Tradicionalmente, los periódicos y otros medios de comunicación, han cumplido la función de seleccionar, jerarquizar y presentar de forma contextualizada, de acuerdo con ciertos criterios periodísticos. Actualmente, este proceso de selección y valoración del conjunto de información disponible en la Web, incluso el de redacción, está siendo emulado de forma creciente por sistemas automatizados [algoritmos] de búsqueda, redacción y evaluación de noticias.
En estos casos, directores y redactores, entran en competencia con la velocidad y cada vez mayor precisión de la automatización periodística de un algoritmo. Este tipo de programas, rastrean y seleccionan información según ciertos factores relacionados con el consumo del usuario, y crean un orden jerárquico en el universo de noticias, distinto para cada persona, que dan lugar a muestras compatibles con cada usuario, obtenida de forma automatizada de distintos proveedores de contenidos digitales. No obstante, ocurre aquí un sesgo importante en la información que se recibe. La discriminación puede estar basada en factores tan simples como “lo más leído”, “lo más enviado”, “lo más googleado” o “lo más twitteado”.
Incluso en redes complejas como Google News. La actividad de los algoritmos consiste en la jerarquización y presentación de contenido informativo, completamente automatizado, y basado en la “actividad” de los usuarios en sitios informativos: presencia en webs, juicio de los lectores, actividad con cada enlace, comentarios, interacción, identificación, número de ocasiones en que es compartida la nota, etcétera. El ejemplo más representativo de este tipo de periodismo es ‘Google News’, donde se ha pulido un sistema en el que la única participación humana ocurre con la selección de los medios que serán rastreados por su robot de búsqueda [más de 9,000 sitios en inglés], y la fijación y revisión de los factores que debe el algoritmo considerar, para la valoración y selección de noticias para cada perfil de consumidor. Por ejemplo, el 17 de marzo de 2014, un terremoto de relevante magnitud sacudió a California. El “primer reportero” en cubrir la noticia fue un algoritmo, llamado Quakebot, diseñado por el periodista y programador Ken Schwencke, de Los Ángeles Times.
El enorme reto que presenta este tipo de periodismo, radica en el hecho de que los agregadores inteligentes de noticias, se basan en el esfuerzo de otros medios por crear y jerarquizar contenido noticioso. Esto implica ya nuevos problemas y debates en materia de propiedad intelectual y de costos. Incluso, entra la dicotomía moral de la eficiencia en la generación de la información a cambio de la supresión, en mayor medida posible, del elemento humano, puesto que se ve afectado, también, el ejercicio mismo del periodismo…
http://www.milenio.com/opinion/gabriel-torres-espinoza/columna-gabriel-torres-espinoza/inteligencia-artificial-amenaza-el-periodismo