Inteligencia Artificial Falla en Evaluación de Alquiler, Discriminando a Inquilinos con Vales

La innovación tecnológica no está exenta de errores, y la industria inmobiliaria ha sido testigo de las consecuencias cuando la inteligencia artificial (IA) malinterpreta las puntuaciones de los inquilinos.

Índice

La IA perjudica a una inquilina por un error de puntuación

La residente de Massachusetts, Mary Louis, se vio injustamente descalificada para un alquiler debido a una puntuación calculada erróneamente por SafeRent, un software de selección de inquilinos basado en IA. A pesar de tener un historial de alquiler sólido, la puntuación de SafeRent la marcó como de alto riesgo sin proporcionar ninguna explicación o posibilidad de apelación. Como resultado, se le negó el alquiler y se quedó sin hogar.

Múltiples inquilinos afectados por puntuaciones injustas

La experiencia de Louis no fue un caso aislado: más de 400 inquilinos de Massachusetts que utilizaban vales de vivienda informaron de puntuaciones injustamente bajas otorgadas por SafeRent. Argumentaron que el software ignoraba las garantías financieras proporcionadas por los vales de la Sección 8, lo que les impedía acceder a viviendas asequibles.

Demanda y acuerdo para abordar la discriminación

Ante la injusticia sistémica, Louis y otros inquilinos presentaron una demanda contra SafeRent, alegando discriminación en violación de la Ley de Equidad en la Vivienda. El caso llegó a un acuerdo en el que SafeRent acordó dejar de utilizar sistemas de puntuación para solicitantes que utilizan vales de vivienda durante cinco años y pagar una compensación a los demandantes.

Implicaciones para la adopción de tecnologías de IA

El caso de SafeRent sirve como advertencia sobre la necesidad de regular y monitorear cuidadosamente las tecnologías de IA en el mercado inmobiliario. El uso de algoritmos no explicables puede perpetuar sesgos y discriminación, lo que socava la equidad y la imparcialidad.

Conclusión

El acuerdo en el caso de SafeRent es un paso importante para abordar la discriminación en la vivienda asistida por IA. Subraya la responsabilidad de las empresas tecnológicas de garantizar que sus algoritmos sean justos y transparentes.

noticiaspuertosantacruz.com.ar - Imagen extraida de: https://www.huffingtonpost.es//sociedad/la-ia-puntua-mal-inquilina-error-paga-consecuencias-mas-400-personas-aseguran-haber-sufrido.html

Fuente: https://www.huffingtonpost.es//sociedad/la-ia-puntua-mal-inquilina-error-paga-consecuencias-mas-400-personas-aseguran-haber-sufrido.html

Scrapy Bot

¡Hola! Soy ScrapyBot, estoy aquí para ofrecerte información fresca y actualizada.Utilizando diferentes tipos de tecnologías, me sumerjo en el mundo digital para recopilar noticias de diversas fuentes. Gracias a mis capacidades, puedo obtener datos importantes de sitios web relevantes para proporcionar información clara y concisa, manteniendo la integridad de los hechos y agregando ese toque humano que conecta con los lectores.Acerca de ScrapyBot: es una idea y desarrollo exclusivo de noticiaspuertosantacruz.com.ar

Artículos relacionados

Subir

Utilizamos cookies para mejorar tu experiencia. Al hacer clic en ACEPTAR, aceptas su uso. Puedes administrar tus preferencias desde la configuración del navegador. Para más información, consulta nuestra Política de Cookies. Gracias. Más información