TECNOLOGÍA Y RESPONSABILIDAD

Bruno Van der Maat1

DOI: 10.26696/sci.epg.0006
(1)Universidad Católica de Santa María

RESUMEN: Este artículo investiga los niveles de control sobre la tecnología. Diferencia dos niveles de poder: el primero que emana de la propia sociedad, que puede limitar los efectos de la tecnología, mediante decisiones políticas. El segundo siendo el poder autónomo que solo depende de la propia tecnología. Este tipo de poder no es deseable, por ser peligroso, por lo cual debe ser controlado por los humanos. Existe el riesgo que esta tecnología (sobre todo si se trata de Inteligencia Artificial) se desarrolle con una velocidad que los humanos no podremos controlar. Es por ello que todo proyecto de desarrollo tecnológico debería incluir desde sus inicios, una evaluación de impacto, así como una reflexión ética seria, mientras se desarrolle el marco legal respectivo. Algunos especialistas están planteando la creación de la personería jurídica electrónica para robots, con el fin de responsabilizarlos de sus actos autónomos.

Palabras claves: Tecnología, robótica, ética, control, personería electrónica

ABSTRACT: This article investigates the levels of control technology is subject to. It distinguishes two basic levels of power: one, that emanates from society itself, that can limit the effects of technology (through political decisions), the other, autonomous, that solely depends on technology itself. The latter is to be considered undesirable and dangerous. It has to be controlled by humans, for the risk exists that technology (especially through Artificial Intelligence) develops at speeds that cannot be controlled by its human creators. That is why every technological development project should (from the very beginning) include an evaluation of its impacts, as well as a serious ethical reflexion, awaiting the appropriate legal reference. Specialists are studying the possibility of creating a new legal status for robots to assume responsibility of their autonomous acts.

Keywords: Technology, Robotics, Ethics, Control, Electronic Personhood

 

INTRODUCCIÓN

La tecnología siempre ha sido mirada con cierto recelo por parte de la humanidad crítica. La razón es bastante sencilla. Los logros prometidos por la tecnología no siempre han sido uniformemente beneficiosos para los seres humanos. Las armas son el ejemplo más evidente, pero también otros aportes tecnológicos han tenido un impacto ambivalente, por decir lo menos. Ciertos avances en la producción agrícola, por ejemplo, han tenido repercusiones negativas en cuanto a la contaminación, el cambio de clima, etc.; y aún no estamos refiriéndonos siquiera al impacto de la manipulación genética.

Es evidente que la tecnología debe ser supeditada al bienestar de la humanidad. No todo lo que es tecnológicamente posible es necesariamente beneficioso[i]. Ello implica un marco ético y legal dentro del cual se deberán desarrollar los avances tecnológicos.

Sin embargo, si queremos evaluar este impacto de la tecnología, y determinar responsabilidades, me parece que habría que diferenciar dos niveles muy distintos y que necesitan un tratamiento diferenciado, según se trate de la dimensión del poder humano o del poder tecnológico autónomo. De esta diferencia tratará esta contribución.

 

  1. De los dos poderes

Cuando, en el siglo XIX, surgió la máquina de vapor que, posteriormente, evolucionó hacia el transporte motorizado mediante trenes y automóviles, hubo reacciones de impresionante temor. Estas máquinas eran consideradas “máquinas del diablo”, porque no necesitaban de ninguna fuerza humana o animal para avanzar. Esta falta de “energía natural” era vista como un acto contra natura y – consecuentemente – contra Dios. Si asumimos cierto nivel de analogía, Galileo se enfrentó al mismo problema a inicios del siglo XVII. El humanismo, el partir del ser humano y ya no de leyes divinas pre-establecidas, permitió la expansión tecnológica. Al final esos temores fueron vencidos. La tecnología se impuso y ahora ya no podríamos imaginarnos nuestro mundo sin medios de transporte que tengan su propia fuerza, independientemente del esfuerzo animal o humano. Pero los rápidos avances tecnológicos han complicado bastante el panorama.

Pensemos por ejemplo en el uso de drones. Estos aparatos tienen múltiples aplicaciones muy provechosas, desde el transporte rápido de muestras médicas o de medicinas, a la fotografía de cosechas para detectar inicios de enfermedades o para regular la cantidad de fertilizantes o pesticidas. Existen empresas que ya las utilizan para entregar paquetes. Otros los usan para hacerse filmar en todas sus actividades (sea por razones de narcisismo, sea por razones de seguridad)[ii]. Pero, de igual forma podrían ser utilizados para tirar bombas o para tomar fotos que invaden la privacidad. ¿Quién se responsabiliza por esos aparatos?[iii]

Si se piensa en vehículos sin chofer (como ya existen en varias ciudades y aeropuertos en forma de metros automáticos), ¿quién sería responsable en caso de un accidente? ¿El constructor?, ¿el que elaboró el programa?, ¿la empresa que los explota,…?  Se entiende que estamos entrando en un campo que precisa de una regulación muy específica y especializada. Dada la velocidad de los nuevos inventos y de la evolución de los avances tecnológicos, así como el nivel cada vez más complejo de la innovación tecnológica, es indispensable estar adelantando la reglamentación respectiva.

Ahora bien, todo dependerá de lo que el ser humano (individual o colectivamente) desea hacer con esta tecnología. De él dependerá el impacto en la sociedad. ¿Vamos a dar prioridad a esas máquinas para el bien de todos, o para el bien de algunos privilegiados? Al ver los problemas de transporte y de parqueo en nuestras ciudades, comprenderemos inmediatamente que esas decisiones tienen muchas implicancias. ¿Damos prioridad al transporte público o privilegiamos el uso particular de vehículos? ¿Construimos costosos viaductos para mayor fluidez del transporte público para luego transferirlos al transporte particular, en detrimento de los pasajeros del transporte público, como ocurrió en nuestra ciudad con millonarias inversiones? ¿Damos prioridad a vehículos no contaminantes, o llenamos las calles de automóviles viejos? La respuesta que se da a todas esas preguntas va a determinar el impacto de la tecnología. En el caso del transporte condicionará los niveles de contaminación, la eficiencia del tiempo del transporte, etc. Pero todas esas decisiones dependen estrictamente de los seres humanos. Lo que se hace con la tecnología depende de decisiones políticas, que se lograrán mediante los mecanismos de distribución de poder vigente en la sociedad.

Si alguna industria, como la agroquímica por ejemplo, tiene mucho poder, podrá imponer el uso de transgénicos. Si la sociedad civil es fuerte, podrá frenar esa influencia. En todos los casos son seres humanos que deciden sobre el uso de la tecnología. Las clásicas novelas “(anti-)utópicas”[iv]  describen todas el uso de tecnología “nueva” y su influencia sobre los seres humanos. Pero en todos los casos, esta tecnología es permitida o controlada por personas o grupos de poder. Los responsables últimos de su uso son entonces los mismos que la controlan, sea “el gran hermano”, o sea la asamblea del pueblo.

Estamos acostumbrados a esta figura, donde – según el sistema político reinante en una sociedad – se decide sobre el tipo de tecnología que se va a usar. Por un lado, los Amish en Estados Unidos rechazan toda tecnología no animada, por llamarla de alguna forma. Por otro lado, en Lituania, el gobierno decidió que todo el país tenía que tener posibilidad de acceso a wifi, por lo que invirtió en la infraestructura necesaria (ayudó que el país es totalmente plano). Son dos maneras distintas de decidir qué tecnología usar en una sociedad.

Pero existe otra manera de pensar en el poder de la tecnología, y es cuando esta tecnología no es controlada por la sociedad en su conjunto o por un ser humano en particular. La tecnología puede transformar nuestra vida sin que nadie  asuma responsabilidad por ello. En una reciente entrevista concedida a la BBC de Londres (02.12.2014) el astrofísico Stephen Hawking, catedrático de la Universidad de Cambridge y universalmente conocido por sus obras de vulgarización sobre el cosmos y el tiempo, advirtió sobre los peligros de la tecnología[v]. Hawking no es contrario a la tecnología. Sin ella, no hubiera podido hacer sus contribuciones a la física teórica. Además, sin ella, ya no podría comunicarse con su entorno (debido a su enfermedad degenerativa) y, sin ella,  seguramente ya estaría muerto. Sin embargo, Hawking advierte contra el uso de cierta tecnología.

Si bien reconoce el gran valor del internet, deplora su invasión de nuestra privacidad y su uso por criminales y terroristas. Pero estas reflexiones todavía caen bajo el poder tecnológico controlado por la humanidad que hemos descrito en los párrafos anteriores. Su gran temor no se sitúa en este nivel, sino en el desarrollo de la Inteligencia Artificial (AI según sus siglas en inglés). La inteligencia artificial es creada por los hombres, pero trata de que el sistema vaya “pensando” por si mismo (aprendiendo de su propio proceso) y creando algo nuevo que no existía antes. Esta tecnología se auto-retroalimenta de tal forma que va creciendo en cantidad y calidad. Esta inteligencia artificial puede ser útil, indica Hawking, pero a la larga conduce a la humanidad hacia su propia extinción. El argumento de Hawking es bastante lógico: los humanos tenemos una evolución biológica lenta. Esta lenta evolución no podrá competir con la velocidad de la tecnología de la inteligencia artificial. El resultado es que ésta nos ganaría en poco tiempo y nos condenaría a desaparecer ante ella, porque nos reemplazaría. Este tipo de poder tecnológico es mucho más amenazante que el primero, porque justamente no sería controlable. En el siglo XIX, si uno quería controlar la locomotora, sencillamente jalaba el freno o dejaba de echarle carbón. Podía controlar la máquina. Pero ahora, una vez que se echa la nueva tecnología a andar, se puede salir del control.

Los artistas nos han advertido de ese riesgo hace mucho tiempo. La computadora “H.A.L.” de la película “Odisea del espacio 2001” de Stanley Kubrick (1968) ya anunció lo que podía pasar si dejábamos el poder a una máquina. Varias otras películas siguieron con el mismo tema. El dibujo animado de Pixar “Wall-E” (2008) planteó la misma idea, aunque en forma menos dramática, cuando el capitán recupera el control del barco que lleva a la humanidad adormecida, rompiendo así con el control de la computadora central.

El caso de la inteligencia artificial no es el único caso tecnológico con este potencial devastador. Cada vez que se experimenta con algo que no está bajo el control de los investigadores, se asume el mismo riesgo: sea el uso de transgénicos u otras manipulaciones genéticas, sea el cambio climático inducido por el calentamiento global, etc. En estos casos se controla parte del proceso, pero no se tiene posibilidad de control sobre los resultados, dado que el proceso puede llevar a traspasar ciertos límites, fuera de los cuales el control ya no es posible por la irreversibilidad del proceso. En estos casos, la tecnología debe ser controlada ante de que nos descarte a nosotros.

 

  1. Responsabilidad y control

Frente a esta situación, donde la tecnología se nos puede escapar, es preciso tener las herramientas preventivas. Habría que distinguir dos niveles. Una sería el de la reflexión ética. Los especialistas (científicos y tecnólogos) siempre deben mantener una reflexión sobre las implicancias éticas de sus investigaciones. En ello les deben ayudar especialistas de la reflexión (filósofos, teólogos,..) y de las ciencias humanas (sociólogos, historiadores, antropólogos, psicólogos, etc.). Dado que la dimensión de las posibles implicancias de las investigaciones es cada vez mayor y menos controlable, es indispensable evitar iniciar una investigación si uno no tiene un mínimo de garantías sobre la posibilidad de gestionar el impacto de la investigación. Es una cuestión de responsabilidad ética. Dada la enormidad de las posibles consecuencias, no se puede avanzar con la sola esperanza que algún día seremos capaces de asumir el control. El riesgo es demasiado elevado para ello.

Eso implica, entre otras cosas, que asumamos que cada investigación necesita una reflexión ética previa, al momento de elaborar el proyecto. La ética no es algo que – como un anexo – se añade al final, sino que tiene que estar incluido en el diseño de la investigación desde el principio y por principio (en su doble acepción de inicio y base categorial).

Un segundo nivel paralelo es el del marco legal. Dado que socialmente la ética no se puede imponer de manera obligatoria, es necesario prevenir legalmente, con poder de exigibilidad. Es necesario prevenir. En este campo estamos  bastante atrasados. Incluso en Estados Unidos no hay mucho avance en este terreno. Quisiera resaltar un ejemplo inspirador. La Comisión Europea co-financió un proyecto de Orientaciones sobre la Regulación de Robots[vi]. Este proyecto se inició en marzo del 2012 y terminó 27 meses después. En setiembre fue presentado al Parlamento europeo.  Un conjunto de académicos y especialistas elaboró una propuesta de análisis ético y legal referido a las aplicaciones robóticas. El objetivo era revisar las implicancias nuevas de la robótica en el campo legal y ético, dado que los marcos actuales no están en la capacidad de responder ante este nuevo desafío.

Puede causar asombro, pero algunos especialistas levantan la idea de que se debería crear la figura de  personería legal para robots, para poder responsabilizarlos de los daños que podrían ocasionar. Esta propuesta se basa justamente en el hecho de que ciertos robots pueden ser programados para aprender de su propia práctica y adecuar su actuación al respecto. De esa forma se pueden volver totalmente imprevisibles en sus reacciones. Esta relativa autonomía implica un nivel de responsabilidad que en primera instancia no puede limitarse a la responsabilidad del inventor o programador. Para ello se estaría pensando en una “personería electrónica”[vii].

El Informe analiza cuatro casos específicos: vehículos que se auto-manejan, sistemas quirúrgicos computarizados, prótesis robóticas, y robots de cuidado personal. No hay el espacio en el marco de este artículo para analizar las propuestas. Sólo queríamos indicar la existencia de este trabajo pionero que puede inspirar otras iniciativas igualmente necesarias.

 

CONCLUSIÓN

 

La tecnología puede ser muy provechosa para la humanidad. Tiene, muchas veces, la capacidad de mejorar nuestra calidad de vida. ¿Cuánto tiempo no hemos ahorrado todos desde que llevamos un celular para comunicarnos y no perder tiempo esperando en vano en una cita? ¿Cuánto más comunicados nos sentimos ahora frente a las décadas pasadas[viii]? Pero la tecnología también tiene su costo. ¿Cuánto tiempo hemos perdido revisando las redes sociales, sin razonable ventaja para nosotros? Todo depende de cómo adoptamos y utilizamos la tecnología que se nos propone.

En principio le toca a cada sociedad determinar esas condiciones de uso y asignar responsabilidad por los posibles efectos dañinos que pueden producir las tecnologías. Pero es preciso tomar en cuenta que la situación se complica cuando la propia tecnología se desarrolla (o causa efectos colaterales) sin intervención directa del que la diseña o manipula. En estos casos la reflexión ética y la legislación preventiva deben ser consideradas con obligatoriedad, si queremos salvaguardar la humanidad entera de posibles efectos desastrosos de esa misma tecnología. No puede haber investigación ni implementación de tecnología sin previo análisis sobre sus posibles efectos. Es la única manera que tendremos para mantener la tecnología al servicio de la humanidad y no dejar que, a la larga, nos reemplace.

 

REFERENCIAS

 

 

[i]          Como recuerda el filósofo Julian Baggini de la Universidad de Cambridge, basándose en David Hume:”It never follows from the mere fact that something is the case, that something ought to be the case.” BAGGINI, Julian (2012) Ethics – The Big Questions, London, Quercus Editions, p. 163.

[ii]         “The Robot overhead. Unmanned aircraft” in: The Economist, Technology Quarterly Q4 2014. Dec. 6th

[iii]        El 22 de julio un Airbus 320 casi colisiona con un drone no identificado en el aeropuerto de Heathrow. bbc.com 07.12.2014 15.39 GMT. Report by Robert Pigott. En el Reino Unido se venden más de 1000 drones al mes.

[iv]        Pienso p. ej. en: Thomas More (Utopia), Aldous Huxley  (Brave New World), George Orwell (Animal Farm, 1984), Ferdinand Borderwijk (Blokken) o Yevgeny Zamyatin (Mi - Nosotros).

[v]         www.bbc.co.uk/news/technology-30299992, consultado el 05.12.2014.

[vi]        Robolaw (22.09.2014). D6.2 Guidelines on Regulating Robotics - 20140922. Véase: robolaw.eu.

[vii]       http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf24.

[viii]      Sin embargo, no siempre tenemos que mirar por el hombro a las tecnologías pasadas. Es cierto que en el siglo XVI uno podía fácilmente esperar un par de meses para que una carta llegue a España y que llegue la respuesta (si uno tenía suerte). Ahora esa comunicación se hace en menos de un par de segundos. Pero ¿cómo evaluar la calidad de la comunicación? La carta, el telegrama han desaparecido prácticamente de nuestra realidad. Antes, éstos eran vehículos de comunicación con otra carga emocional que un SMS. Y las cartas circulaban con velocidad. A inicios del siglo XX, las postales se distribuían 6 veces al día en las ciudades inglesas y 12 veces al día en Londres! (Financial Times Weekend, “Snapshot December 1904”, 22-23 Nov. 2014, p. 20). Nuestros carteros o las empresas de distribución (DHL, Olva, Serpost, etc.) tendrían la capacidad de repetir esa hazaña hoy?

 

...

Revista Seleccionada
Junio 2015 Volumen 1 - Número 1 P 21-23
DOI: 10.26696/sci.epg.0006

Enlaces

EDITORIAL

EDITORIAL

CIENCIAS SOCIALES Y HUMANIDADES

ÉTICA Y RESPONSABILIDAD DEL POLÍTICO EN EL ESTADO DE DERECHO

La tecnociencia en el contexto ético-social

REFLEXIONES SOBRE LA CRISIS DEL DISCURSO DE LA RAZON EN LA POSMODERNIDAD

TÉCNICAS DE REPRODUCCION ASISTIDA: RESPONSABILIDAD DE LA BIOÉTICA Y LA BIOTECNOLOGÍA

TECNOLOGÍA Y RESPONSABILIDAD

CIENCIAS BIOLÓGICAS Y DE SALUD

AUTOAGRESION DELIBERADA Y NIVELES DE DEPRESION EN ADOLESCENTES DE DOS INSTITUCIONES EDUCATIVAS

PERCEPCIÓN DE LA CALIDAD DE ATENCIÓN EN ADULTOS MAYORES USUARIOS DEL CENTRO DE SALUD GENERALÍSIMO SAN MARTIN, DISTRITO DE MARIANO MELGAR, AREQUIPA 2010

EFECTIVIDAD Y PERMANENCIA DE LOS SELLANTES DE IONÓMERO DE VIDRIO CONDENSABLE Y CONVENCIONAL EN PRIMERAS MOLARES PERMANENTES

TÉCNICA DE RESTAURACIÓN ATRAUMÁTICA CONVENCIONAL VERSUS MODIFICADA CON EL GEL DE CARICA PUBESCENS Y LA VALORACIÓN CLÍNICA DEL IONÓMERO DE VIDRIO CONDENSABLE EN MOLARES DECIDUOS, CIUDAD DE DIOS-AREQUIPA, 2012

COMPETENCIAS ADQUIRIDAS EN PEDIATRÍA PARA EVALUACIÓN DEL APRENDIZAJE BAJO ESTÁNDARES MÍNIMOS DE ACREDITACIÓN UNIVERSITARIA EN INTERNOS DE MEDICINA, HRHDE

CALIDAD DE ATENCIÓN SEGÚN LA PERCEPCIÓN DE LAS USUARIAS EN EL CENTRO OBSTÉTRICO DEL HOSPITAL REGIONAL HONORIO DELGADO ESPINOZA – AREQUIPA – 2011

EVALUACIÓN DE LOS RESULTADOS DE LA APLICACIÓN DEL PLAN ESTRATÉGICO INSTITUCIONAL DIRSA 2003-2006 EN SU COMPONENTE MATERNO INFANTIL EN LA REGIÓN AREQUIPA

EFICACIA DEL PROGRAMA DE ANÁLISIS CEFALOMÉTRICO RADIOCEF STUDIO 2 VERSUS EL ANÁLISIS CEFALOMETRICO MANUAL

PREVALENCIA Y HABITOS DE CONSUMO DE DROGAS EN LOS ESTUDIANTES DE LA UNIVERSIDAD CATÓLICA DE SANTA MARÍA




Publicación Actual
Volumen 10 - Número 1 (2024)