¡Únete a Community of Insurance!

La inteligencia artificial ¿peligro para la humanidad?

Fecha

A mediados de marzo más de 1.000 personas firmaban una carta a través del Institute for the future para pedir una paralización de todas las investigaciones sobre la tecnología de Inteligencia Artificial. Algunos de estos firmantes como por ejemplo Sam Altman, responsable de ChatGPT comparecía ante una comisión del Congreso de los Estados Unidos y advertía sobre la necesidad de regular la Inteligencia artificial “porque podría poner en peligro de extinción a la humanidad”.

Semanas después, mediados de abril, el Dr. Geoffrey Hinton, vicepresidente de ingeniería de Google dimitía “para alertar sobre los peligros de la Inteligencia artificial”. Hinton no firmó la carta de los 1.000 porque lo consideró ingenuo ya que “no hay manera de parar a empresas y países” y se preguntaba en una entrevista en EL PAIS “aún salvando la competencia de las empresas, está la de los países. Si EE UU decidiera dejar de desarrollar IA ¿realmente cree que China se detendría?. La idea de detener la investigación llama la atención de la gente sobre el problema, pero – la paralización – no va a suceder”.

Es curioso observar que cuando se producen estos dos acontecimientos, millones de personas de personas en el mundo comienzan a reaccionar y proliferan artículos, videos y expresiones a favor y en contra de la Inteligencia Artificial, unos argumentando que debe ponerse coto al desarrollo incontrolado de la IA – haciendo suyo la advertencia de Sam Altman – otros defendiendo que no se debe poner límite al desarrollo científico. Al mismo tiempo, estos millones de personas se descargan en masa las aplicaciones de los mismos desarrolladores y se convierten sin darse cuenta en alimentadores de la interpretación cognitiva” de los mismos algoritmos de dichas aplicaciones, en una palabra, contribuyen gratuitamente y paradójicamente a su perfeccionamiento.

Para los seres mortales que no alcanzamos a discernir la profundidad del debate, el dilema está servido.

¿Qué tenemos que hacer, cómo adoptar una posición ante un dilema que algunos lo sitúan al mismo nivel que el cambio climático o las pandemias?

Parece claro que la moratoria pregonada por esos 1.000 expertos no se va a producir porque hay muchos intereses económicos y de poder geopolítico en juego. Por una parte, empresas como META, Microsoft, Google o Amazon no solo no han seguido el llamamiento de los 1.000 – ellos mismos firmantes – sino que están promoviendo sus propias herramientas, y por la otra existe una pugna total de control y de poder entre los EE UU y China en relación a la tecnología para el desarrollo de la IA. Los europeos tratamos de hacer algo pero con poco margen de maniobra ante estos dos poderosos.

Los seres mortales tenemos que ser beligerantes y tratar de posicionarnos ante este gran dilema.

En primer lugar, tratando de estudiar, aprender, leer, escuchar a quienes saben del tema y demuestran con hechos que además de su visión científica aportan su visión ética y humana ante el dilema. Por ejemplo, el propio Geoffrey Hinton nos da algunas pistas de por donde tenemos que ir cuando dice que “la IA es una tecnología fantástica que está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones”, “no sirve de nada – señala – esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla y tenemos que aprender como contenerla, como evitar las malas consecuencias”.

Es interesante este artículo de Mackinsey sobre ¿Qué es ChatGPT, DALL-E y la IA generativa?

En segundo lugar, ante un asunto de tanto impacto, parece claro que tenemos que organizarnos mejor porque es posible que la IA sea utilizada en beneficio de las personas que poblamos el planeta y no para el beneficio de unos pocos o para que se convierta en arma de poder mundial. Aplaudimos iniciativas de ciudadanos que se unen para profundizar y debatir sobre el desarrollo e impacto de la la IA o nos parece interesante el enfoque de la UE sobre el asunto con gran énfasis a la protección del uso del dato – elemento capital de la IA que se puede desarrollar precisamente por la acumulación dedatos y por la velocidad de su tratamiento a través de la computación cuántica.

En tercer lugar, parece claro que debemos posicionarnos y discernir si el dilema es apocalíptico – “peligra la humanidad” – o por el contrario se trata de resolver problemas concretos de las personas.

En este sentido nos alineamos claramente con las tesis que defiende Nuria Oliver en un artículo publicado en EL PAIS recientemente al señalar que más que poner el punto de mira en la solución de problemas apocalípticos y largoplacistas de la IA – expresados por Altman en el Congreso de los EE UU – debemos fijarnos en otros retos mayores y próximos que nos plantea la IA como por ejemplo “la violación de la privacidad y el uso de cantidades masivas de datos sin consentimiento expreso y potencialmente infringiendo los derechos de propiedad intelectual, la explotación de trabajadores que anotan, entrenan y corrigen con sueldos ínfimos, los sesgos de los algoritmos de discriminaciones de todo tipo, la huella del carbono…”. Y continúa Nuria Oliver “la falta de veracidad de los sistemas, las peligrosas teorías largoplacistas han penetrado también en los gobiernos que postulan un mundo dirigido por un grupo privilegiado en lugar de promover una tecnología que se adapte a las personas y no al revés, tecnología que nos ayude a enfrentarnos con los grandes retos y al progreso humano, entendido este como la mejora de la calidad de vida de las personas.”

Es importante, siguiendo las reflexiones de Nuria Oliver, no caer en la trampa de hacerles el juego a los que solo tienen un propósito, su enriquecimiento personal y les importa un bledo no que la ciencia y la tecnología estén al servicio de la mejora de los ciudadanos que poblamos el mundo o como bien dice Klaus Schwad en su libro – La cuarta revolución industrial – “la tecnología solo me interesa si sirve para que la humanidad viva mejor”. 

A modo de conclusión, defendemos los avances de la tecnología de Inteligencia artificial en un contexto vigilante y beligerante frente aquellos – sean individuos, grupos, empresas o gobiernos – que la utilicen para su propio beneficio en perjuicio de las personas que exigimos el respeto de nuestros derechos y que defendemos una sociedad más justa y equilibrada con menos desigualdades sociales, económicas y políticas.

¡Únete a Community of Insurance!

Los datos personales facilitados y cualesquiera otros generados durante el desarrollo de la relación contractual o comercial que mantengamos, serán tratados por COMMUNITY OF INSURANCE, S.L. La finalidad del tratamiento es gestionar y generar tu perfil profesional en nuestras aplicaciones y redes, gestionar los distintos servicios que proporciona el sitio web, y promover u organizar las actividades o eventos que desarrollemos, con el objetivo final de favorecer a la interrelación entre profesionales. Dicho tratamiento se basa en su consentimiento, en la relación contractual o comercial existente entre las partes, y en nuestro interés legítimo. Se podrán ceder datos a terceros para la prestación de servicios auxiliares, el cumplimiento del contrato, o por estricta obligación legal. Se podrán realizar transferencias internacionales de datos, a países con el mismo nivel de garantía.. Puede, cuando proceda, acceder, rectificar, suprimir, oponerse, así como ejercer otros derechos, tal y como se detalla en la información adicional y completa que puede ver en nuestra política de privacidad.

Artículos
relacionados