Inteligencia Artificial Falla en Evaluación de Alquiler, Discriminando a Inquilinos con Vales
La innovación tecnológica no está exenta de errores, y la industria inmobiliaria ha sido testigo de las consecuencias cuando la inteligencia artificial (IA) malinterpreta las puntuaciones de los inquilinos.
La IA perjudica a una inquilina por un error de puntuación
La residente de Massachusetts, Mary Louis, se vio injustamente descalificada para un alquiler debido a una puntuación calculada erróneamente por SafeRent, un software de selección de inquilinos basado en IA. A pesar de tener un historial de alquiler sólido, la puntuación de SafeRent la marcó como de alto riesgo sin proporcionar ninguna explicación o posibilidad de apelación. Como resultado, se le negó el alquiler y se quedó sin hogar.
Múltiples inquilinos afectados por puntuaciones injustas
La experiencia de Louis no fue un caso aislado: más de 400 inquilinos de Massachusetts que utilizaban vales de vivienda informaron de puntuaciones injustamente bajas otorgadas por SafeRent. Argumentaron que el software ignoraba las garantías financieras proporcionadas por los vales de la Sección 8, lo que les impedía acceder a viviendas asequibles.
Demanda y acuerdo para abordar la discriminación
Ante la injusticia sistémica, Louis y otros inquilinos presentaron una demanda contra SafeRent, alegando discriminación en violación de la Ley de Equidad en la Vivienda. El caso llegó a un acuerdo en el que SafeRent acordó dejar de utilizar sistemas de puntuación para solicitantes que utilizan vales de vivienda durante cinco años y pagar una compensación a los demandantes.
Implicaciones para la adopción de tecnologías de IA
El caso de SafeRent sirve como advertencia sobre la necesidad de regular y monitorear cuidadosamente las tecnologías de IA en el mercado inmobiliario. El uso de algoritmos no explicables puede perpetuar sesgos y discriminación, lo que socava la equidad y la imparcialidad.
Conclusión
El acuerdo en el caso de SafeRent es un paso importante para abordar la discriminación en la vivienda asistida por IA. Subraya la responsabilidad de las empresas tecnológicas de garantizar que sus algoritmos sean justos y transparentes.
Artículos relacionados