Introducción A La IA - Módulo 4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

4.

Impacto en la sociedad de consumo


4.1 Riesgos de la Inteligencia Artificial
4.1.1 Riesgos
Cuando pensamos en los riesgos que implica la Inteligencia Artificial (IA), es fácil caer en la
falsa sensación de que es algo ajeno a la gente común, que son cosas de la ciencia ficción o
de un futuro lejano que sólo lo verán generaciones posteriores a la nuestra. Esta conclusión no
podría estar más alejada de la realidad.
Tomemos como referencia que los expertos y personas influyentes de esta era, como Nick
Bostrom, Stephen Hawkins, Elon Musk o Bill Gates, han destinado dinero propio para crear la
fundación OpenAI. Esta organización sin fines de lucro se formó con el único propósito de
desarrollar la Inteligencia Artificial para beneficiar a la humanidad, estableciendo
estándares y protocolos éticos.
Analicemos juntos los comentarios de personas influyentes del mundo de la tecnología:
 Ya en 2014, Stephen Hawking publicó un artículo en el que decía que el mayor evento de
la historia humana sería el éxito de la inteligencia artificial, pero también sería el último si
no aprendemos como sociedad a evitar los riesgos.
 En 2017, Elon Musk (fundadador de Tesla y Paypal) le solicitó al gobierno de Estados
Unidos legislar acerca de la IA antes de que sea tarde, ya que lo considera una amenaza
inminente para la existencia de la humanidad.
 Sundar Pichai, CEO de Google, en 2018 alertó sobre la importancia de regular estas
nuevas tecnologías, ya que su potencial "mal uso" podría desencadenar consecuencias muy
negativas.
 Marco Casari, gerente general de Microsoft Colombia, pidió por regulaciones que
garanticen seguridad, igualdad, transparencia, justicia y privacidad.
Como se deja ver, hay una preocupación generalizada por el potencial peligro que la
Inteligencia Artificial supone para la especie humana. Es un tema que debe ser analizado,
discutido y legislado para poder sacar el mayor de los beneficios de esta tecnología
evitando los riesgos que trae aparejados.
Aun así, no debemos tener temor. Pensemos que, hace ciento veinte años, cuando los hermanos
Wright hacían su primer vuelo en avión a motor, muchos seguramente se cuestionaron si aquel
invento se usaría para lanzar bombas atómicas sobre ciudades japonesas. El tiempo nos ha
demostrado que así fue, que se usó para la guerra, pero también hay que reconocer que el
avión acortó distancias, unió al mundo, aceleró de manera exponencial el transporte, permite
que un órgano sea trasplantado a 2000 km de distancia. Con esto sólo se quiere desmitificar
el uso de la tecnología.
Todo tiende a acomodarse, en más o menos tiempo, las sociedades se ordenan y la
tecnología acompaña este orden. La Inteligencia Artificial no será la excepción.
4.1.2 Las tres reglas de la robótica
Isaac Asimov, el famoso escritor ruso de ciencia ficción que escribió obras como Yo, Robot,
postuló tres leyes básicas por las que los robots en particular y las máquinas en general
debían regirse. En sus novelas y cuentos, estos "seres" debían cumplir órdenes de humanos,
pero también podían obrar por sí mismos.

Las tres leyes fueron escritas por primera vez para el cuento "Círculo vicioso" de 1942,
aunque las continuó citando en sus posteriores relatos:

1) Primera ley: no causar daño.


Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano
sufra daño.
Esta primera ley no sólo indica que un robot nunca puede causar daño a una persona,
sino que también debe evitar que una persona haga o se haga daño. Dicho con otras
palabras, el robot debería no sólo hacer las cosas bien, sino también evitar que algo
o alguien que no las hace bien cause un daño a una persona.
Ejemplo: un autobús que se conduce de forma autónoma con pasajeros va por su
carril, respeta los semáforos, etc., pero detecta que otro vehículo se aproxima con una
conducción peligrosa. En este contexto, debe velar por evitar la colisión,
independientemente de que su conducción sea correcta.
2) Segunda ley: cumplir las órdenes.
Un robot debe cumplir las órdenes de los seres humanos, excepto si dichas órdenes entran
en conflicto con la primera ley.
Un sistema informático autónomo (o inteligente) siempre debe cumplir el mandato que
se le encomendó, a menos que este mandato sea generar algún daño a una persona.
Desde una perspectiva actual, esta regla plantea un serio y complejo dilema ético.
Tomemos el caso del armamento autónomo, por ejemplo, un drone no tripulado cuya
única misión es matar a otra persona.
3) Tercera ley: proteger la propia existencia.
Un robot debe proteger su propia existencia en la medida en que ello no entre en
conflicto con la primera o la segunda ley.
Esta ley intenta que la máquina se auto proteja, siempre y cuando esto no implique
causar un daño a otra persona (primera ley) o desobedecer una orden (segunda ley).
Pensando en los límites éticos de la Inteligencia Artificial, esta regla también
representa una dificultosa implementación y cumplimiento. Pensemos, por ejemplo, en
un misil inteligente cuya finalidad es simplemente autodestruirse contra algún objetivo.
4.1.3 ¿Debe una máquina o robot tener derechos?
La Sociedad Americana para la Prevención de la Crueldad contra los Robots (ASPCR, por sus
siglas en inglés), fundada en 1999, afirma que las máquinas eventualmente serán inteligentes,
podrán pensar y tendrán sentimientos. Esto las deja, en algún punto, en condiciones
comparables con las de los animales. Lastimar un robot sería equivalente a lastimar un perro.
Bajo este argumento, podemos inferir que los robots deben tener derechos.

Pero no olvidemos que lo que le da "vida" a un robot es un algoritmo, una serie de bits y
bytes que se ejecutan en circuito electrónico, que no es posible verlo ni tocarlo. Esto quizás
dificulte su legislación, pero no por esto podemos decir que un robot tiene derechos y un
algoritmo no los tiene. Sin embargo, un algoritmo puede ser tan perverso como cualquier
terrorista o asesino. Por ende, si tiene derechos: ¿también tiene obligaciones? ¿Cómo se lleva
esto a la práctica? ¿Cómo puede una autoridad de cumplimiento velar por el efectivo
cumplimiento de una obligación devengada por un robot o algoritmo?

Todos estos interrogantes hacen que cientos de expertos en informática, juristas, políticos,
corporaciones y gobiernos no logren acordar una línea de pensamiento único y, por ende, no
hay una legislación en uno u otro sentido. Por el momento, sólo son grises y especulaciones.
4.2 Ética y mercado
4.2.1 Por qué debería preocuparnos la ética en la Inteligencia
Artificial

No podemos olvidar que detrás de la Inteligencia Artificial hay algoritmos, detrás de cada
robot y/o máquina inteligente hay un fragmento de código hecho por una persona y, por este
motivo, tiene sus virtudes y sesgos.
Sin importar de qué se trate, ya sea de la venta de teléfonos móviles inteligentes o de
sistemas computacionales autónomos, se prevé para 2025 un negocio de 195.000 millones de
dólares derivados directa o indirectamente de la Inteligencia Artificial. Detrás de este dinero,
están, entre otros, gobiernos y grandes corporaciones (Google, Amazon, IBM, Microsoft y
Facebook).
Como la mayoría de las ideas y proyectos, se comienza con un buen fin en mente. Pero
durante el proceso, esto se puede desvirtuar. El fin justifica los medios es una frase que señala
al individuo dispuesto a realizar cualquier cosa que desea para conseguir un objetivo. Nadie
conoce más de esto que los gigantes de la tecnología que nombramos antes.

Autonomía de las armas


Un arma, por definición, es un instrumento concebido y desarrollado para matar. Con el
avance de la tecnología cada vez más armas tradicionales empiezan a tener componentes
tecnológicos y, con el avance que se ha logrado desde la Inteligencia Artificial, estos
componentes tecnológicos tienden a ser autónomos. Las ventajas para el soldado están a la
vista: no debe ir al frente de batalla, sino que una máquina va en su lugar. Esto alimenta ese
antiguo y, nunca más que ahora, bien fundado temor de la humanidad como especie de que
estas máquinas que son capaces de moverse en forma autónoma un día se vuelvan contra sus
creadores. Si bien parece que estamos hablando de ciencia ficción, hoy más que nunca esto
es una posibilidad real.

Generar tendencia en una sociedad


Las personas cada vez dejamos más información personal nuestra en sitios públicos o de
dudosa procedencia. Dado el grado de avance de los algoritmos de deep learning, es posible
generar con esta información identidades falsas que pueden ser utilizadas por estafadores,
gobiernos o empresas para generar tendencias, es decir, inducir a una sociedad a pensar de
una determinada manera. Tomemos por ejemplo el caso concreto de Cambridge Analytica en
relación con el brexit en el Reino Unido. A partir de la manipulación de datos personales, fue
posible generar tendencias en las redes sociales (a partir de publicidades, comentarios,
imágenes, etc.) que finalmente influyeron en el resultado del referendo.
Aunque podamos pensar en la utilización del código fuente libre o abierto1, los algoritmos
muchas veces son tan complejos que hacen imposible su inspección.

1
Existen programas que no se guían por las directrices del derecho autoral en lo que respecta a su código
fuente, permitiendo que sus usuarios lo modifiquen, lo editen y lo compartan más o menos libremente, conformando una
especie de comunidad de usuarios especializada. Estos programas se llaman de “código abierto”, ya que cualquiera puede
intervenir sus instrucciones esenciales y crear versiones propias o individuales del programa original, llamadas, a su vez
“distribuciones”.
Muchas veces su creador puede saber qué debería hacer un algoritmo con exactitud, pero, en
un gran número de oportunidades, no sabe qué hace en realidad. La matemática interna es
tan compleja y dependiente de librerías construidas por terceros que muchas veces los
resultados no están alineados con las expectativas de originales.

4.2.2 Incidencia de la Inteligencia Artificial en el mercado


Se ha hablado de los riesgos que puede tener la Inteligencia Artificial si no se utiliza de
manera apropiada, si las manos que la programan o el fin que busca es o no ético. Los
conceptos Inteligencia Artificial, ética y mercado están íntimamente relacionados, si uno lo
piensa con detenimiento. Es por ello de suma importancia que los Estados comiencen a legislar
sobre estos temas, ya que la tecnología avanza de manera vertiginosa y no se debería
esperar a que sucedan hechos lamentables para recién allí comenzar a actuar al respecto.

A continuación, se mencionarán situaciones donde ya la Inteligencia Artificial ha modificado


sustancialmente el mercado, ya sea desde el punto de vista económico, laboral o social.

Incidencia del pasado en el futuro


Todos los algoritmos de machine learning tienen como principal insumo datos históricos. Esto
implica que se puedan inferir perjuicios en el futuro en función de situaciones pasadas. Así,
por ejemplo, si un algoritmo es entrenado para interpretar y actuar en consecuencia sobre la
temática de las relaciones homosexuales, el algoritmo podría inferir que es una situación
ilegal y anormal el casamiento entre dos personas del mismo sexo y, con esta conclusión,
actuar negativamente ante una temática puntual.

Sistemas y su dependencia
Los humanos tendemos a querer simplificar las cosas, a optar por las opciones que nos
demanden el menos esfuerzo. Con el auge de la tecnología en general y de la inteligencia
artificial en particular, esta tendencia se hace notar cada vez más y es así que empezamos
ya hace tiempo a dejar de hacer las cosas nosotros mismos y a depender de máquinas y/o
sistemas informáticos para que las hagan por nosotros. Esta relación estrecha con la
tecnología conlleva una creciente dependencia que da como resultado una incapacidad de
poder los resolver las tareas diarias por canales alternativos. Así, por ejemplo, si vamos al
banco y el "sistema esta caído", no hay nada que hacer, debemos volver en otro momento.

Empleos
Muchos inventos (antiguos y modernos) hoy son posibles gracias al empleo, en alguna medida,
de Inteligencia Artificial. Esto hace que máquinas que debían ser operadas por personas hoy
puedan cumplir su función sin necesidad de su operador humano. Muchas de estas tareas las
hacen, incluso, mejor las máquinas que las personas.
Desde el punto de vista de una empresa o un empresario, las máquinas tienen muchas
ventajas por sobre las personas:
o Una máquina no se enferma.
o No tiene derecho a huelga.
o No llega tarde.
o No necesita descanso.
o Trabaja las 24hs. los 365 días del año.
o La calidad de su trabajo no se ve afectada por el cansancio o el estado de ánimo.

Tomemos algunos ejemplos que muestran cómo hoy las máquinas y los algoritmos de
Inteligencia Artificial se han juntado para reemplazar empleos que hasta hace muy poco
tiempo sólo era posible que los realizaran personas:

 Peajes. Los sistemas automatizados de visión artificial mediante el uso de cámaras de


video filman los autos mientras van ingresando a las dársenas. En tiempo real, pasan el
video a los sistemas de visión artificial que son capaces de reconocer los vehículos y las
chapas patentes de los mismos. Luego mediante sistemas de reconocimiento óptico de
caracteres (OCR, por sus siglas en ingles) se obtienen los caracteres y dígitos de las
patentes y, con esta información, también en tiempo real se consultan las bases de datos
para conocer el estado de cuenta del usuario y con este resultado determinar si la barrera
debe abrirse o no. Todo se realiza de forma autónoma, sin intervención alguna de
personas.

 Guardias de seguridad. Otra de las profesiones que cada vez es más reemplazada por
los sistemas inteligentes es la de los vigilantes de cámaras de seguridad. Un sistema de
visión artificial es capaz de determinar si en un determinado perímetro se realizó o no una
irrupción y disparar alarmas para actuar en consecuencia.

 Call centers. Desde los años 80, los call centers en ciudades como Córdoba han tenido un
crecimiento sostenido, ya que las grandes empresas de servicios necesitan cada vez más
dar soporte a sus clientes. Esta tendencia se ha visto radicalmente modificada desde el
advenimiento de los bots de Facebook o Whatsapp, por ejemplo. En estos casos, un
sistema de Inteligencia Artificial con procesamiento de lenguaje natural es quien atiende la
consulta del cliente y, sólo en caso de no poder responder, transfiere a una persona la
comunicación. Esto ha generado de forma sostenida un reemplazo de capital humano en
este tipo de empleo.

 Covid-19. Tomemos una problemática muy actual como lo es la pandemia del Coronavirus.
Muchas personas están con miedo y creen tener síntomas compatibles con la enfermedad.
Esto genera que las consultas a profesionales de la salud vayan en continuo crecimiento.
Para dar soporte a esta situación, muchos países han implementado aplicaciones montadas
sobre las bases del deep learning para tratar de dar respuesta a esas primeras consultas,
muchas veces triviales, pero que consumen tiempo de médicos, muy necesario para dar
soporte a los casos reales.

Estas situaciones de mercados y los ejemplos planteados de empleos afectados por la IA son
apenas una pequeña muestra de todo lo que se podría exponer en el material.

Seguramente ha servido como disparador para pensar en muchas situaciones más. Situaciones
que no son futuristas. Son situaciones que ya nos están tocando a todos y debemos comenzar
a adaptarnos a vivir o sobrevivir con la llegada de la tecnología inteligente inmersa en
nuestra vida cotidiana, que está o estará, en breve, al alcance de todos.
Referencias
Adarraga, P.; Zaccagnini, J. (1994). Psicología e Inteligencia Artificial. Madrid: Trotta.

Asimov, I. (1989). Círculo vicioso. Los robots. Trad. Domingo Santos. Barcelona: Martínez
Roca.

Martínez, R. (2015). La ciencia ficción de Isaac Asimov. Editorial Portula.

También podría gustarte