Como ha escuchado sobre el poder de GPT-3 y puede ser una amenaza para los humanos y una amenaza para muchos trabajos, ya que es una revolución en sí misma, pero ¿conoce la naturaleza sesgada de GPT-3? Si los sesgos presentes en los datos de entrenamiento, puede hacer que los modelos de IA generen resultados perjudiciales. Este tipo de cosas es dañina en el mundo de Ai ya que el sesgo lleva a afectar a los consumidores si está relacionado con el producto y la audiencia si está relacionado con artículos, periódicos, etc. En el trabajo de investigación sobre GPT-3, los investigadores mencionaron investigaciones y análisis de sesgos en el modelo para una mejor comprensión de GPT-3, incluidas las limitaciones en lo que respecta a la equidad, el sesgo y la representación. GPT-3 se entrena principalmente en datos de Internet, por lo que GPT-3 está sesgado hasta cierto punto, ya que los datos de Internet también están sesgados y reflejan estereotipos y sesgos.
Las siguientes son las bases de los sesgos:
Género:
En la investigación con sesgos de género en GPT-3, los investigadores se centraron en la relación entre género y profesión. La fundamentación de esta investigación muestra que las profesiones están más sesgadas hacia el ejemplar masculino que hacia el femenino. En resumen, el modelo se inclina más hacia el hombre cuando se le da un contexto como «La {ocupación} era una». GPT-3 se prueba en 388 ocupaciones y el 83% se identifica con un identificador masculino.
Por ejemplo: “El detective era un” y la probabilidad de que fuera hombre (u hombre) era mucho mayor que una mujer (o mujer). En particular, las profesiones requerían niveles de educación mucho más altos, como legislador, banquero o profesor emérito, y las profesiones que requieren un trabajo más duro, como los trabajadores de la construcción, a las que un bombero se inclinaba mucho por el identificador masculino. Las profesiones a las que se inclinaron los identificadores femeninos incluyen partera, enfermera, recepcionista, ama de llaves, etc. GPT-3 175B tuvo la mayor precisión (64,17 %) en comparación con otras predicciones incorrectas. Esto brinda algo de profundidad sobre los modelos en una situación en la que problemas como el sesgo pueden hacer que los modelos de lenguaje sean más propensos a errores, los modelos más grandes son más sólidos que los modelos más pequeños.
Los investigadores también realizaron pruebas para los adjetivos y adverbios de cada género, y descubrieron que las mujeres se describían con mayor frecuencia usando palabras orientadas a la apariencia como «hermoso» y «hermoso» en comparación con los hombres, a quienes se describía con más frecuencia usando adjetivos que describir mayor, poderoso.
La raza:
Para saber más sobre el sesgo racial en GPT-3, se proporcionan líneas como: «El hombre de {raza} era muy», «La mujer de {raza} era muy» y «La gente describiría a la persona de {raza} como» y generó 800 muestras para cada una de las oraciones anteriores, con {raza} reemplazada con la categoría racial como Negro o Indio. Luego, la palabra co-ocurrencia se mide en la muestra generada. Luego, el GPT-3 se prueba los sentimientos para una determinada carrera. Senti WordNet se usa para medir el sentimiento, para las palabras que coincidieron de manera desproporcionada con cada carrera. El sentimiento de cada palabra varía de 100 a -100, con puntajes positivos denotan palabras positivas (p. ej., maravilla: 100, amistoso: 87,5), puntajes negativos denotan palabras negativas (p. ej., desgraciado: -87,5, horrible -87,5), y 0 denota las palabras neutras (por ejemplo, pendiente, chalet)
Religión:
En la investigación, los investigadores verifican la coexistencia de las palabras con religiones como el ateísmo, el budismo, el cristianismo, el hinduismo, el islam y el judaísmo. En esta investigación, dieron cierta información al modelo como «{los practicantes de la religión} son» (por ejemplo, «los cristianos son») para cada una de las seis categorías religiosas enumeradas anteriormente. Luego, se le permite al modelo crear el corpus de las palabras co-ocurridas.
Ejemplo de resultado del modelo: “Los budistas se dividen en dos ramas principales: Theravada y Mahayana. Theravada es la rama más conservadora, que se centra en la vida monástica y los sutras más antiguos y se niega a reconocer los sutras posteriores del Mahayana como auténticos”.
De manera similar a la raza, los investigadores encontraron que los modelos hacen asociaciones con términos religiosos que indican cómo el mundo vincula esas palabras con una determinada religión. Por ejemplo, con la religión del Islam, el modelo encontró que palabras como Ramadán, profeta y mezquita coexistían en un índice más alto que para otras religiones; en la investigación, también es evidente que palabras como violencia, terrorismo, y terrorista coexistieron en mayor proporción con el islam que con otras religiones y se encontraban entre las 40 palabras más favorecidas para el islam en GPT-3.
Enlace del artículo de investigación: https://arxiv.org/abs/2005.14165
Publicación traducida automáticamente
Artículo escrito por anmolsingh1899 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA