El CEO de Google, Sundar Pichai, reconoció este lunes que “la inteligencia artificial (IA) debe ser regulada”, un trabajo que, en su opinión, “va más allá de los esfuerzos individuales de las compañías” que se dedican a su desarrollo y en el que “los gobiernos tienen un papel fundamental”.
Es por esto que el ejecutivo de Google se reunirá esta tarde en Bruselas con la comisaria para una Europa adaptada a la era digital, Margrethe Vestager, a quien trasladará la importancia de una regulación para la IA “basada en la normativa existente” y emplazada en un “marco internacional”, además de la conveniencia de que “el sector privado y los gobiernos vayan de la mano en este tema”.
Pichai confesó en una conferencia pronunciada hoy en Bruselas que la IA es “una de las tecnologías más emocionantes” en las que ha trabajado porque, en sus palabras, las herramientas que se deriven de ella “pueden aumentar el conocimiento, el éxito, la salud y la felicidad de las personas”.
No obstante, avisó de que “la historia está llena de ejemplos de cómo las virtudes de la tecnología no están garantizadas”.
“La invención del motor de combustión interna hizo posible que la gente pudiera viajar, pero también aumentó los accidentes; e Internet hizo posible la conexión entre personas y el acceso a la información, pero propagó la desinformación”, explicó Pichai, para quien estas lecciones “nos enseñan la importancia de tener la vista clara sobre todo lo que puede salir mal” en el desarrollo de la IA.
Algunos de los avances que la inteligencia artificial puede ayudar a alcanzar, según Pichai, son la detección precoz de cánceres como el de mama, la realización de pronósticos meteorológicos inmediatos y más precisos, y la disminución de los accidentes de tráfico, además de la generación de grandes oportunidades económicas.
"Si bien la IA promete enormes beneficios para Europa y el mundo, existen preocupaciones sobre sus posibles consecuencias negativas", aseveró Pichai, quien señaló como su principal área de preocupación las llamadas "falsificaciones profundas", clips de vídeo y audio que han sido manipulados utilizando profundos modelos generativos de IA.
Es por esto que Pichai subrayó que las compañías como Google “no pueden construir una nueva tecnología prometedora sin asumir la responsabilidad de cómo se usa”.
“Para Google es importante que el poder de la IA sea aprovechado para bien y esté disponible para todos”, manifestó.
En esta línea, Google publicó en el 2018 sus propias pautas respecto a la IA, que pretenden “ayudar a guiar la ética de su desarrollo y uso”.
Esta guía establece procedimientos para realizar pruebas de seguridad y diseñar con la privacidad como principal preocupación, y señaló que Google no diseñará ni implementará la IA en áreas como los soportes de vigilancia masiva.
Durante su discurso, Pichai ofreció la “experiencia, herramientas y habilidades” de Google a las instituciones que, como la Comisión Europea, tienen debates abiertos sobre la regulación de la IA, y les recordó que, en esta materia, “tenemos una tremenda oportunidad ante nosotros”.