Inteligencia artificial llegaría a ser un factor negativo en la sociedad actual

Con todo el desarrollo que se vienen observando en la actualidad en torno a la tecnología son siempre dirigidos a la sociedad como tal, creados con un perfil realmente ambicioso pero que comienzan de una mentalidad con altos valores de sus respectivos desarrolladores. Por eso, la inteligencia artificial ha ido tomando varios puntos de relevancia por parte de los creadores que tienen arraigados, así como el mismo sexismo dentro de la sociedad y diversos puntos aún por perfeccionar.

En sí, no todas las formas que se ven en el sexismo son tan simples de identificar y mucho menos de lograr erradicarlas día a día (y tampoco se pueden suprimir a esos individuos obstinados en el que no logran avanzar. Como ya se ha ido discutiendo durante mucho tiempo, vuelve a caer en el propio lenguaje las formas sexistas para la comunicación, el cual todo el tiempo ha de ser así y es increíblemente arduo el conseguir mezclarlo, y todavía más si la gran generalidad piensa que eso es lo mínimo.

Es por eso que otras formas en el sexismo han sido movidas a la inteligencia artificial, específicamente en esas que emplean el lenguaje. Se trata de una confirmación el cual es fruto de un estudio hecho por el profesor James Zou, procedente de la Universidad de Stanford y ex trabajador de la empresa Microsoft.

Según lo que menciona, se crea una discrepancia entre la ocupación del género para poder programar el habla de cada programa con inteligencia artificial el cual, mientras vaya progresando el aprendizaje de éste, se puede ir progresando en cada ocupación negativa debido al punto sexista.

Por ende, al poder ir programando cada sistema de lenguaje, ya sean chatbos, algoritmos que aconsejan las webs, métodos de traducción o todo tipo de sistemas, se guardan conjuntos de información el cual representa el vínculo entre las palabras en el momento que esas corresponden a diferentes valores matemáticos. De forma traducida, eso supondría que la máquina en cuestión logre identificar los vínculos semánticos y comprender toda relación entre lo que es la palabra parecida a la que existe entre un hombre y una mujer.

Con el fin de poder traducirlo de inglés a español, los encargados de la investigación hallaron que, por ejemplo, la palabra “programador”, (sin un género asignado en inglés), más aproximado al concepto de “hombre” que de “mujer”, por lo que la palabra semejante a esa es “ama de casa” “homemaker”.

Esos vínculos el cual son preconcebidos con la misma palabra se sitúan en manifiesto, por ejemplo, al momento de hallar alguna página web de programadores, surgen en primera instancia sitios al cual todas pertenecen a hombres y luego, están las femeninas. Como respuesta a ello, planearon el reajuste el vínculo matemático entre cada palabra de género neutro en inglés y las de género definido.

Sin embargo, se está conversando del sentido social que se ve reflejado en la inteligencia artificial, claro que no solo permanece marcado el sesgo sexista, conjuntamente se ve involucrado el racial y otros tipos.

“No se debería estar pensando en eso como una equivocación, sino como en una peculiaridad”, señala Arvind Narayanan, quien es profesor de Princeton. “Verdaderamente, todo ello depende del empleo. Lo que supondría un sesgo o algún prejuicio intolerable en la aplicación, pudiese ser de manera exacta lo que se requería al momento de extraer información en otra”.

Abarcando esas declaraciones, se vislumbra para unos el poder borrar cada conducta de métodos automáticos lograría disminuir toda “representación en el mundo real”, el cual va controlando el programa y de esa forma “hacer que sean menos beneficiosos al momento de realizar alguna predicción o análisis de información”.

No obstante, para otras personas como Barbara Grosz, procedente de la Universidad de Hardvard, piensa que lograría agravar ya la actual desigualdad que existe en la sociedad. “Cuando se está rodeado de una sociedad que evoluciona de una forma concreta, lo que deseas es ir ajustando el futuro para que no sea como el pasado, y ya se debe confiar en los algoritmos que están haciendo ese tipo de predicciones, la pregunta es si la ética está sino, se estaría inhibiendo concretamente la evolución que se busca”.