IT&IS Siglo XXI S.L. ha compartido esto
🚨 ¿Debemos controlar o asumir los riesgos de la IA? A propósito del libro "La ola que viene" de Mustafa Suleyman y las visiones contrapuestas de Yann LeCun y Andrew Ng, #InteligenciaArtificial #Innovación #EducaciónDigital #Regulación #Tecnología
Andrés Pedreño Muñoz coincido plenamente contigo en que la educación podría ser un verdadero cortafuegos (y también creo que la educación digital hoy ya no es solo necesaria: ¡es imprescindible!). Ahora reflexionando más en profundidad sobre tu análisis me surgen las siguientes dudas (que comparto a modo de reflexión en "voz alta" :)): Si creemos que los entes reguladores no son capaces de contener el desarrollo de la IA sin dañar su poder innovador, ¿realmente podemos creer que los mismos serán capaces de liderar un cambio profundo en el paradigma educativo y no quedarse en la superficialidad de los cambios "cosméticos"? ¿Crees realmente que una alianza educativa sería más poderosa que una alianza militar o tecnológica en el siglo XXI? y si así fuera ...¿Cómo evitaríamos, con una ciudadanía alfabetizada digitalmente, la concentración de poder de la IA, si los mecanismos de control o auditoría están fuera de su alcance? Al igual que tú, creo firmemente en el poder de la educación para cambiar el mundo. Sin embargo, cada día me cuestiono si realmente eso no es una utopía. Gracias por tus aportes; son muy enriquecedores e invitan a la reflexión ;) Un saludo!
Estimado Andrés Pedreño Tu reflexión sobre el libro es muy interesante. No te quedas solo en tu valoración, haces aportaciones que nos invitan a la reflexión y a tomar partido por una sociedad educada digitalmente. Gracias, uno siempre aprende leyéndote.
Cualquier avance tecnológico siempre va a generar incertidumbre, es inevitable. Tenemos ejemplos que demuestran que el resultado final de un descubrimiento/ avance, aún habiendo sido inspirado por la búsqueda del beneficio universal, ha tenido consecuencia catastróficas. En cualquier caso, en nuestras manos está lo que la IA suponga realmente para nuestra sociedad. Inteligencia "humana" y cautela serán imprescindibles.
Virginia Béjar ha leído 'La ola que viene' y me dice que contiene reflexiones impactantes.
Asistimos hoy a las dos versiones de cómo abordar el desarrollo de la AI. La Europea, desde el miedo, que busca controlar, regular y minimizar el riesgo. La Estadounidense o China, desde la oportunidad, que busca facilitar e impulsar el desarrollo de la IA. En mi opinión, las nuevas tecnologías siempre han despertado el miedo y la necesidad de control, evitando su uso masificado. La historia de la humanidad está llena de ejemplos. Al final, las barreras artificiales creadas por el miedo fueron siempre superadas por los beneficios. Tal vez, a quien debemos regular, no es a la IA, sino a los humanos. La IA per se no es buena ni mala, son los humanos los que hacen un buen o mal uso de ella. ¿Podemos regular a los humanos para que no hagan mal uso de la IA? Compartir un código ético, individuos, empresas y gobiernos sobre el buen uso, sería un buen principio. Ademas, tal vez, una educación ética acerca de cómo usar la IA en beneficio de la humanidad, pueda ayudar a que haya más humanos buenos que malos. En mi opinión la discusión no es acerca de la bondad o maldad de la IA, como no lo fue acerca de todas las grandes innovaciones, la discusión es acerca del humano como un ser capaz de hacer el bien o el mal, con IA o sin IA.
¡Tremendo debate! La visión de Suleyman sobre la "contención" de la IA es un reflejo del miedo a lo desconocido, pero me inclino más por la postura de LeCun y Ng: la mejor manera de controlar los riesgos es con más acceso, más transparencia y más educación. Regular en exceso puede asfixiar la innovación y dejar el desarrollo en manos de unos pocos gigantes tecnológicos. Concido en que, lo que realmente necesitamos es una transformación educativa profunda que prepare a las personas para entender, usar y mejorar la IA, no solo temerle. La IA no es una amenaza en sí misma, sino una herramienta que depende de cómo la utilicemos. Apostar por la educación digital masiva es la jugada maestra para garantizar que la IA beneficie a la humanidad en lugar de convertirse en un riesgo descontrolado. La pregunta clave no es "¿cómo la detenemos?", sino "¿cómo nos preparamos para aprovecharla al máximo?".
Andrés, defiendes que una educación digital masiva podría ser la solución clave frente a los riesgos de la IA. Pero si observamos que nuestras instituciones educativas siguen ancladas en métodos del siglo XIX, y considerando además la rapidez con la que la IA evoluciona, ¿crees realmente que podremos formar ciudadanos digitalmente competentes a tiempo, o quizás esta propuesta educativa, aunque necesaria, podría llegar demasiado tarde y ser insuficiente?
Querido Andrés, gracias por este articulo. "Necesitamos multiplicar exponencialmente los presupuestos educativos actuales y apostar decididamente por sistemas educativos capaces de formar ciudadanos digitalmente competentes". ¿Contamos con una clase política que comprenda que no se trata de un gasto adicional, sino de una inversión en nuestro futuro? Habilidad de aprender, desaprender y volver a aprender es la esencia de un sistema educativo orientado hacia el futuro.
AI Researcher at Google.org-OdiseIA Digital Futures Project | Tech Investment Advisor | Int'l Tech Biz Dev | STS Blogger & Lecturer | Among the very first to coin the term AIaaS (Artificial Intelligence as a Service)
3 semanasCítese: "¿debemos "apagar" parcialmente el fuego innovador por precaución, o asumir sus riesgos y aprender a gestionarlos sobre la marcha?" Precisamente, en la línea de Ng, esta pregunta se responde en pos de/ post reforma educativa y, casi màs importante, cuando la autoridad política sepa lo que hace. Llego hasta aqui porque responder tomaría toda una reflexión.