...y el libre albedrío a medida que crece la tecnología de mejora del cerebro
Si bien los avances tecnológicos en inteligencia artificial apuntan a aumentar o incluso restablecer las capacidades humanas, los expertos temen que esto pueda algún día causar más daño que beneficio, haciendo necesaria una "llamada a la ética" para proteger nuestra privacidad.
Ahora que la inteligencia artificial y las interfaces cerebro-computadora se están fusionando, no tendremos que esperar demasiado hasta que pueda "devolver la vista a los ciegos, permitir que los paralizados muevan las extremidades robóticas y curar cualquier cantidad de trastornos cerebrales y del sistema nervioso".
Sin embargo, un equipo de investigadores encabezado por el neurocientífico de la Universidad de Columbia Rafael Yuste y la bioética de la Universidad de Washington Sara Goering, que incluye la ingeniería biomédica y especialista en rehabilitación de la Universidad de Michigan Jane Huggins, advierte que sin regulación, la innovación puede tener implicaciones negativas para la humanidad.
A través de un ensayo en Nature , más de dos docenas de médicos, especialistas en ética, neurocientíficos e informáticos hicieron hincapié en la necesidad de "directrices éticas" para regular el uso evolutivo de hardware y software que se utilizará para mejorar o restablecer las capacidades humanas.
Yuste, director del Centro de Neurotecnología de Columbia y miembro del Instituto de Ciencia de Datos , explica que el grupo sólo quiere asegurarse de que esta tecnología "emocionante", que puede usarse para "revolucionar nuestras vidas", sólo se utilice para el mejoramiento de la humanidad.
Huggins, director del Laboratorio de interfaz cerebral directa de UM, está de acuerdo. Ella dijo: "Esta tecnología tiene un gran potencial para ayudar a las personas con discapacidad a expresarse y participar en la sociedad, pero también tiene el potencial de un uso indebido y consecuencias no deseadas. Queremos maximizar el beneficio y promover el uso responsable".
La ciencia ficción a menudo ha especulado sobre las posibilidades, pero ahora las computadoras que se fusionan con la mente humana "para aumentar o restaurar la función cerebral" se están convirtiendo rápidamente en realidad. El grupo de expertos predice que la industria de implantes cerebrales con fines de lucro, liderada por la startup de Bryan Johnson Kernel y Neuralink de Elon Musk, actualmente vale $ 100 millones. Durante el mandato del presidente Obama, el gobierno de EE. UU. Gastó otros $ 500 millones desde 2013 solo en la Iniciativa BRAIN.
Estas inversiones pronto pueden arrojar resultados positivos, pero los autores son cautelosos sobre cuatro amenazas principales: "La pérdida de privacidad individual, identidad y autonomía, y la posibilidad de que las desigualdades sociales se amplíen, a medida que corporaciones, gobiernos y hackers adquieren mayor poder para explotar". y manipular a la gente."
Estas son sus sugerencias para protegerse contra estas amenazas:
Para proteger la privacidad, los autores instan a las personas a que acepten participar, por ejemplo, como lo hacen los donantes de órganos, cuando comparten sus datos cerebrales desde sus dispositivos. Agregaron que la venta y el uso comercial de datos personales deben ser monitoreados estrictamente.
Para proteger la autonomía y la identidad, los autores sugieren que se cree una convención internacional para determinar qué acciones se prohibirían. También puede educar a las personas sobre los posibles efectos de esta tecnología en "el estado de ánimo, la personalidad y el sentido del yo".
Para abordar el potencial de una carrera armamentista para mejorar el cerebro que establecerá "personas con inteligencia y resistencia sobrehumanas contra todos los demás", los autores pidieron la creación de comisiones específicas para cada cultura para establecer normas y regulaciones. También informaron que el uso militar de las tecnologías cerebrales debe mantenerse bajo control de la misma manera que las armas químicas y biológicas están bajo el Protocolo de Ginebra.
En pocas palabras, NO HAY PROTECCIÓN SINO SOMETIMIENTO. A la larga, estas comisiones sabemos como termina, basta mirara el actual funcionamiento de las organizaciones mundiales como la ONU. UNICEF, la OTAN, etc.
El grupo de ética de DeepMind para abordar los problemas de IA
A principios de este año, DeepMind, contraparte de investigación de inteligencia artificial de Google, con sede en Londres, lanzó una nueva unidad que se ocupará de cuestiones éticas y sociales relacionadas con la inteligencia artificial . La compañía compartió que la nueva unidad de investigación se formó "para ayudar a los tecnólogos a poner en práctica la ética y ayudar a la sociedad a anticipar y dirigir el impacto de la IA para que funcione en beneficio de todos".
Google está colaborando con asesores externos de la academia y el sector caritativo, como el profesor de desarrollo de Columbia Jeffrey Sachs, el profesor de AI de la Universidad de Oxford, Nick Bostrom, y la activista del cambio climático Christiana Figueres, que asesorará al grupo.
Comments