
La IA no es una amenaza ética en sí misma, sino un espejo que magnifica los sesgos, costes y vulnerabilidades ya existentes en su organización.
- Los algoritmos de selección pueden perpetuar la discriminación si no se auditan activamente.
- El coste energético y de agua de la IA generativa es un factor ético y medioambiental ineludible.
- La soberanía de los datos de poblaciones vulnerables depende críticamente de la infraestructura elegida (nube vs. local).
Recomendación: Implementar marcos de auditoría proactiva y modelos de gobernanza de datos se convierte en la única vía para innovar con responsabilidad, transformando cada riesgo tecnológico en un pilar de confianza y eficacia operativa.
Para un director de una organización no gubernamental, el panorama tecnológico actual presenta un dilema constante. Por un lado, la presión por modernizarse, optimizar recursos y maximizar el impacto es inmensa. La inteligencia artificial (IA) promete ser una palanca de cambio revolucionaria para lograrlo. Por otro, las alarmas sobre sesgos algorítmicos, la privacidad de los datos y la deshumanización de los servicios generan una cautela más que justificada. El temor a cometer un error ético que dañe la reputación de la organización o, peor aún, a los beneficiarios, es un freno poderoso para la innovación.
Las conversaciones habituales sobre IA en el tercer sector a menudo se centran en los beneficios genéricos de la eficiencia o en advertencias abstractas sobre los peligros. Se habla de « tener cuidado con los sesgos » o de que « la tecnología es solo una herramienta ». Sin embargo, estas ideas no ofrecen una hoja de ruta clara para el liderazgo. ¿Pero si la verdadera clave no fuera evitar la tecnología, sino dominar sus « puntos de fractura » operativos? El desafío ético no está en usar o no usar la IA, sino en comprender profundamente dónde y cómo puede fallar para construir defensas robustas desde el diseño.
Este artículo adopta la perspectiva de un eticista tecnológico para guiar a los directores de ONGs a través de este complejo territorio. No nos limitaremos a señalar los riesgos; desglosaremos los mecanismos subyacentes que los provocan y, lo más importante, ofreceremos marcos de decisión y protocolos concretos. Analizaremos desde los sesgos invisibles en la selección de personal hasta el coste ecológico de una simple consulta a un chatbot, proporcionando las herramientas para convertir la incertidumbre tecnológica en una ventaja estratégica y ética.
Para abordar estos desafíos de manera estructurada, hemos organizado este análisis en varias áreas críticas. Cada sección explora un « punto de fractura » específico de la IA en el contexto de una ONG y ofrece soluciones prácticas y marcos de decisión para navegarlo con seguridad y responsabilidad.
Sumario: Guía de inteligencia artificial ética para el tercer sector
- ¿Por qué la IA de selección de personal descarta a mujeres y minorías si no se audita?
- IA generativa vs Buscador clásico: ¿cuánta agua consume realmente tu consulta a ChatGPT?
- Nube pública o Servidor local: ¿dónde procesar datos de refugiados para garantizar su seguridad?
- El error de sustituir la atención psicosocial por chatbots que no entienden el contexto emocional
- Detectar deepfakes en campañas electorales antes de que se viralicen en tu comunidad
- Currículum ciego o Entrevista tradicional: ¿qué método elimina realmente el sesgo inconsciente?
- Ver series en 4K o HD: ¿cuánto ahorras realmente al planeta bajando la resolución en el móvil?
- Cómo proteger tu privacidad digital si eres activista y temes la vigilancia masiva
¿Por qué la IA de selección de personal descarta a mujeres y minorías si no se audita?
Uno de los mayores atractivos de la IA en recursos humanos es la promesa de objetividad: eliminar los prejuicios humanos del proceso de contratación. Sin embargo, la realidad es paradójica. Existe una brecha significativa entre la confianza en la tecnología y la supervisión real; el 68% de los reclutadores cree que la IA eliminará sesgos, pero apenas el 40% confirma que sus proveedores son transparentes sobre cómo mitigan estos riesgos. Este optimismo desconectado de la realidad es un caldo de cultivo para la discriminación sistémica, pero a una escala y velocidad que ningún equipo humano podría igualar.
La razón fundamental de este fracaso es que la IA no aprende de la « justicia », sino de los datos históricos. Si una organización ha contratado predominantemente a hombres de ciertas universidades en el pasado, el algoritmo aprenderá que ese es el perfil del « éxito ». Replicará y amplificará los sesgos inconscientes existentes, convirtiéndolos en reglas codificadas. El caso de Amazon es el ejemplo más notorio: en 2018, la compañía tuvo que descartar una herramienta de IA porque penalizaba sistemáticamente currículos que incluían la palabra « mujer » o que provenían de universidades femeninas.
Estudio de caso: El sistema de reclutamiento fallido de Amazon
En 2018, Amazon abandonó una herramienta de reclutamiento basada en IA tras descubrir un sesgo de género significativo. El sistema había sido entrenado con los currículos recibidos por la compañía durante una década, un período en el que la mayoría de las contrataciones eran masculinas. Como resultado, la IA aprendió a penalizar perfiles que contenían la palabra « mujer », como « capitana del club de ajedrez femenino », y a degradar a las candidatas graduadas de dos universidades exclusivas para mujeres. Este caso, según revela un análisis de casos reales de discriminación por IA, se convirtió en una lección fundamental sobre el peligro de entrenar algoritmos con datos históricos sesgados sin una supervisión y auditoría adecuadas.
Para una ONG, cuya misión se basa en la equidad y la inclusión, replicar este error sería devastador. La solución no es renunciar a la tecnología, sino implementar un marco de auditoría proactiva. Esto implica un control riguroso de los datos de entrenamiento, revisiones periódicas por equipos independientes y una total transparencia sobre los criterios que utiliza el algoritmo. La tecnología debe ser una herramienta para forzar la diversidad, no para perpetuar el status quo.
Plan de acción para auditar su IA de selección
- Garantizar diversidad en los datos de entrenamiento: Incluir activamente perfiles de diferentes géneros, etnias, orígenes socioeconómicos y trayectorias profesionales para enseñar al modelo un espectro más amplio del talento.
- Realizar auditorías periódicas e independientes: Contratar a terceros o formar un equipo interno diverso para evaluar objetivamente las decisiones del algoritmo y detectar patrones de sesgo.
- Implementar transparencia sobre los criterios: Exigir a los proveedores de IA que expliquen qué variables son más importantes en su modelo de decisión y comunicarlas de forma clara.
- Formar continuamente al equipo humano: Capacitar a los reclutadores para que puedan identificar sesgos tanto en los sistemas automatizados como en sus propias decisiones finales.
- Medir el impacto a largo plazo: Analizar métricas de diversidad y equidad en los equipos contratados para evaluar si la herramienta está cumpliendo su objetivo de reducir el sesgo.
IA generativa vs Buscador clásico: ¿cuánta agua consume realmente tu consulta a ChatGPT?
Mientras el debate sobre la IA a menudo se centra en la ética del software, un « punto de fractura » igualmente crítico pero a menudo invisible es su impacto físico en el planeta. La infraestructura que alimenta los modelos de IA generativa, como ChatGPT, consume cantidades masivas de energía y, sobre todo, de agua para la refrigeración de sus centros de datos. A diferencia de una búsqueda en Google, que recupera información existente, una consulta a una IA generativa desencadena un proceso de cálculo intensivo para crear una respuesta desde cero. Este coste ecológico computacional es un factor ético que las ONGs, especialmente las de ámbito medioambiental, no pueden ignorar.
Estudios recientes han comenzado a cuantificar este impacto, y las cifras son alarmantes. Una conversación de 20 a 50 preguntas con un modelo como ChatGPT puede consumir medio litro de agua. A escala global, esto se traduce en millones de metros cúbicos de agua dulce, a menudo en regiones que ya sufren estrés hídrico. Para una ONG que promueve la sostenibilidad, usar estas herramientas sin conciencia de su huella es una contradicción directa con su misión. No se trata de prohibir su uso, sino de adoptarlo con sobriedad y estrategia.

La clave está en el uso intencionado. Para buscar un dato factual, una fecha o una definición, un buscador tradicional es inmensamente más eficiente y ecológico. La IA generativa debe reservarse para tareas que realmente requieran su capacidad única: la síntesis de ideas, la redacción de borradores o la lluvia de ideas creativas. Implementar una política de « eco-prompts » dentro de la organización puede guiar a los equipos a tomar decisiones más conscientes, alineando la innovación digital con la responsabilidad medioambiental.
- Formular consultas específicas y directas para evitar múltiples iteraciones vagas que multiplican el consumo.
- Utilizar buscadores tradicionales para obtener información factual que no requiere un nuevo procesamiento generativo.
- Priorizar modelos de IA más pequeños y locales (si es posible) en lugar de depender siempre de las grandes APIs en la nube.
- Establecer políticas internas que limiten el uso de la IA generativa para consultas no esenciales o triviales.
- Investigar y optar por proveedores de IA que sean transparentes sobre su consumo de energía y agua y que utilicen fuentes de energía renovable.
Nube pública o Servidor local: ¿dónde procesar datos de refugiados para garantizar su seguridad?
Para las organizaciones que trabajan con poblaciones extremadamente vulnerables, como refugiados, solicitantes de asilo o víctimas de violencia, la gestión de datos no es una cuestión técnica, sino de vida o muerte. La elección de la infraestructura tecnológica para procesar esta información sensible —desde nombres y datos biométricos hasta testimonios de persecución— define el nivel de protección real que se les ofrece. La decisión se reduce a un complejo equilibrio entre la conveniencia de la nube pública, el control de un servidor local y las nuevas alternativas como el aprendizaje federado. Cada opción tiene implicaciones profundas para la soberanía de los datos y el cumplimiento de normativas como el RGPD.
La nube pública (ofrecida por gigantes como Amazon AWS, Google Cloud o Microsoft Azure) es escalable, accesible y rentable. Sin embargo, delega la soberanía de los datos a una corporación. Los datos pueden estar alojados en servidores ubicados en jurisdicciones con leyes de privacidad menos estrictas o sujetos a solicitudes de acceso por parte de gobiernos extranjeros, un riesgo inaceptable para un activista político. Por otro lado, un servidor local ofrece un control total, una soberanía de datos absoluta. Pero su coste inicial es alto y requiere una capacidad técnica interna significativa para su mantenimiento y seguridad, algo que muchas ONGs no poseen.
Una tercera vía emergente y prometedora es el aprendizaje federado. Este enfoque permite entrenar modelos de IA sin que los datos brutos abandonen nunca el dispositivo o servidor local. El modelo « viaja » a los datos para aprender y solo las actualizaciones anónimas y agregadas se envían a un servidor central. Es una solución que, por diseño, maximiza la privacidad y la soberanía, aunque su implementación sigue siendo técnicamente exigente. La elección correcta dependerá de una evaluación honesta de la sensibilidad de los datos, los recursos disponibles y la capacidad técnica de la ONG.
La siguiente matriz de decisión, inspirada en los principios de ética y protección de datos en la inteligencia artificial, puede servir como marco estratégico para directores de ONGs al evaluar la infraestructura más adecuada para sus necesidades.
| Criterio | Nube Pública | Servidor Local | Aprendizaje Federado |
|---|---|---|---|
| Sensibilidad datos | Baja-Media | Alta | Muy Alta |
| Costo inicial | Bajo | Alto | Medio |
| Soberanía datos | Limitada | Total | Total |
| Cumplimiento RGPD | Depende proveedor | Control total | Por diseño |
| Capacidad técnica requerida | Baja | Alta | Media-Alta |
El error de sustituir la atención psicosocial por chatbots que no entienden el contexto emocional
La crisis de salud mental es una de las áreas donde las ONGs desempeñan un papel más crucial, a menudo con recursos limitados y una demanda creciente. La idea de usar chatbots de IA para ofrecer apoyo psicosocial 24/7 es, a primera vista, muy atractiva. Podrían reducir listas de espera y ofrecer una primera línea de ayuda inmediata. Sin embargo, este es quizás el « punto de fractura » más delicado de todos. Sustituir la interacción humana en contextos de alta vulnerabilidad emocional por un algoritmo que simula empatía pero carece de comprensión real del contexto no solo es ineficaz, sino potencialmente peligroso.
Un chatbot puede reconocer palabras clave asociadas a la ansiedad o la depresión, pero no puede interpretar el tono de voz, el lenguaje corporal (en una videollamada) o los matices culturales que un profesional humano capta instintivamente. Puede dar respuestas genéricas de un guion, pero no puede manejar una crisis de pánico real, una ideación suicida compleja o el trauma profundo de un superviviente de abuso. Confiar estas interacciones a una máquina crea una falsa sensación de seguridad en el usuario y puede llevar a un agravamiento de su estado si el bot da una respuesta inapropiada o no logra escalar el caso a un humano a tiempo.
El rol ético de la IA en la atención psicosocial no es la sustitución, sino el aumento de las capacidades del profesional humano. La tecnología debe trabajar en segundo plano para liberar al terapeuta o trabajador social de tareas administrativas y repetitivas, permitiéndole dedicar más tiempo de calidad a la interacción humana. Un modelo híbrido ético es el único camino viable, donde el chatbot actúa como un asistente administrativo inteligente, pero nunca como un sustituto del cuidador.
- Uso exclusivo para tareas administrativas: Los chatbots deben limitarse a agendar citas, enviar recordatorios, proporcionar información general sobre servicios o realizar triajes iniciales muy básicos.
- Interacción emocional 100% humana: Cualquier conversación que implique estados emocionales, relatos personales o necesidad de apoyo debe ser manejada exclusivamente por profesionales capacitados.
- Automatización para liberar tiempo: Se puede usar IA (con consentimiento explícito y anónimo) para transcribir sesiones, permitiendo al terapeuta centrarse en la escucha activa en lugar de tomar notas.
- Protocolos de escalamiento claros: El chatbot debe estar programado para detectar palabras o patrones de crisis (ej. « suicidio », « no puedo más ») y transferir inmediatamente la conversación a un humano disponible, con un protocolo de emergencia claro si no hay nadie.
Detectar deepfakes en campañas electorales antes de que se viralicen en tu comunidad
La desinformación no es un fenómeno nuevo, pero la IA generativa le ha dado un arma de poder sin precedentes: los deepfakes. Estos videos o audios ultrarrealistas pero completamente falsos pueden utilizarse para suplantar la identidad de un candidato político, un líder comunitario o un activista, haciéndole decir cosas que nunca dijo. En el contexto de una campaña electoral o una crisis social, un deepfake bien ejecutado y viralizado puede erosionar la confianza pública, incitar a la violencia y manipular la opinión de una comunidad en cuestión de horas. Para las ONGs dedicadas a la defensa de la democracia y los derechos civiles, la detección y neutralización de esta amenaza se ha convertido en una nueva línea de frente.
El peligro de los deepfakes no reside solo en su realismo técnico, sino en su capacidad para explotar el « sesgo de confirmación »: la gente tiende a creer la información que refuerza sus creencias preexistentes. Un deepfake que muestra a un político « odiado » diciendo algo escandaloso tiene muchas más probabilidades de ser compartido sin verificación. La velocidad de las redes sociales hace que, una vez que el contenido se ha viralizado, desmentirlo sea como intentar volver a meter la pasta de dientes en el tubo. La respuesta, por tanto, no puede ser solo reactiva; debe ser proactiva y comunitaria.

Frente a esta amenaza, las ONGs pueden jugar un doble papel fundamental. Por un lado, actuar como centros de verificación rápida, utilizando herramientas (muchas de ellas de código abierto) para analizar metadatos y artefactos visuales que delatan una manipulación. Por otro lado, y quizás más importante, liderar campañas de alfabetización mediática. Enseñar a la comunidad a ser más crítica con el contenido que consume, a buscar la fuente original y a pensar dos veces antes de compartir es la defensa más sostenible a largo plazo. Se trata de construir una especie de « sistema inmunológico » social contra la desinformación.
Protocolo de respuesta rápida a la desinformación
- Monitorización proactiva: Establecer alertas en redes sociales y grupos locales para palabras clave y contenido viral sospechoso relacionado con su área de trabajo.
- Verificación rápida: Utilizar herramientas de código abierto (como InVID-WeVerify) y técnicas de análisis de metadatos para una evaluación inicial de la autenticidad del contenido.
- Coordinación inter-ONG: Crear una red de confianza con otras organizaciones locales y periodistas para compartir alertas y verificar información de forma conjunta y rápida.
- Desarrollo de contra-narrativas: Preparar infografías, videos cortos y mensajes claros y sencillos para desmentir las falsedades, listos para ser desplegados rápidamente.
- Educación preventiva continua: Realizar talleres de alfabetización mediática en la comunidad, enseñando a los ciudadanos a identificar las señales de un deepfake y fomentando el escepticismo saludable.
Currículum ciego o Entrevista tradicional: ¿qué método elimina realmente el sesgo inconsciente?
La lucha contra el sesgo en la contratación es un objetivo central para cualquier ONG que se precie de ser inclusiva. Históricamente, se han propuesto varios métodos para intentar neutralizar los prejuicios inconscientes de los reclutadores. El más conocido es el currículum ciego, que consiste en eliminar información personal como el nombre, la edad, el género o la fotografía del candidato. La idea es que los evaluadores se centren únicamente en las competencias y la experiencia. Sin embargo, ¿es esta técnica suficiente? Y, ¿cómo se compara con otros métodos, incluyendo las nuevas herramientas de IA?
El currículum ciego es eficaz en la primera fase de preselección. Ayuda a que un abanico más diverso de candidatos pase el primer filtro, evitando que un nombre de origen extranjero o la dirección de un barrio desfavorecido sean motivos de descarte automático. Sin embargo, su poder se desvanece en cuanto llega la fase de la entrevista, donde los sesgos inconscientes (de afinidad, de apariencia, de confirmación) vuelven a entrar en juego con toda su fuerza. La desconfianza hacia la tecnología es palpable, ya que según revelan las estadísticas de IA en reclutamiento, un 20% de los afroamericanos en EE.UU. cree que la IA empeorará los prejuicios raciales, un temor fundado si los algoritmos no son auditados.
Por otro lado, la entrevista tradicional no estructurada es un campo minado de sesgos. La solución más robusta es la entrevista estructurada. Este método consiste en hacer exactamente las mismas preguntas, en el mismo orden, a todos los candidatos, y evaluarlos con una rúbrica predefinida y basada en competencias. Esto minimiza la subjetividad y permite una comparación mucho más justa. La combinación de un currículum ciego para la preselección y una entrevista estructurada para la evaluación final es, hoy por hoy, la mejor práctica basada en la evidencia para reducir el sesgo sin depender de tecnologías de IA potencialmente peligrosas y pseudocientíficas como el análisis de microexpresiones faciales.
La siguiente tabla, basada en los hallazgos del Observatorio de Recursos Humanos, compara la eficacia y las limitaciones de cada método, ofreciendo una guía clara para las ONGs.
| Método | Eficacia anti-sesgo | Limitaciones | Recomendación |
|---|---|---|---|
| CV Ciego | Alta para sesgo demográfico | No elimina sesgo en entrevista | Usar en preselección |
| Entrevista tradicional | Baja | Múltiples sesgos inconscientes | Evitar como único método |
| Video-entrevista con IA | Variable/Riesgosa | Introduce sesgos pseudocientíficos | No recomendado |
| Entrevista estructurada | Media-Alta | Requiere formación evaluadores | Mejor práctica combinada |
Ver series en 4K o HD: ¿cuánto ahorras realmente al planeta bajando la resolución en el móvil?
La conversación sobre la huella de carbono digital a menudo se centra en los grandes centros de datos o la minería de criptomonedas, pero una parte significativa del impacto proviene de nuestras acciones cotidianas, aparentemente inofensivas. El streaming de video es una de ellas. La diferencia de consumo energético entre ver un video en alta definición (HD) y en ultra alta definición (4K) es sustancial. Si bien disfrutar de una película en 4K en un televisor grande tiene sentido, hacerlo en la pantalla pequeña de un teléfono móvil es un desperdicio energético y de datos sin un beneficio perceptible en la calidad de la imagen.
El streaming de video en 4K puede consumir hasta 7 GB por hora, mientras que en HD se reduce a unos 3 GB. Esta diferencia no solo afecta al consumo de energía de los servidores y las redes de distribución, sino también a la batería de nuestro propio dispositivo. Para una ONG, fomentar una cultura de sobriedad digital no es solo una cuestión de responsabilidad medioambiental, sino también de coherencia y liderazgo. Es aplicar a nivel interno los mismos principios de uso consciente de los recursos que se promueven hacia el exterior.
Adoptar una política de sobriedad digital es sencillo y tiene un impacto medible. Consiste en establecer prácticas y configuraciones por defecto que prioricen la eficiencia sobre la máxima calidad cuando esta no es necesaria. Se trata de una serie de pequeños gestos que, sumados a lo largo de toda la organización, envían un mensaje potente y reducen la huella ecológica de la actividad digital de la ONG. El objetivo no es la privación, sino la conciencia y la optimización.
- Establecer HD como predeterminado: Configurar las cuentas de servicios de streaming de la organización (si las hubiera) para que la resolución por defecto sea HD (1080p) en lugar de 4K, especialmente en dispositivos móviles.
- Desactivar la reproducción automática: Tanto en plataformas de video como en redes sociales, desactivar la reproducción automática evita el consumo de datos y energía de videos que no se iban a ver intencionadamente.
- Priorizar el audio sobre el video: En reuniones internas donde no es estrictamente necesario verse, optar por apagar las cámaras reduce drásticamente el ancho de banda y el consumo energético.
- Limpiar la nube regularmente: Establecer un protocolo para eliminar archivos duplicados, obsoletos o innecesariamente pesados de los sistemas de almacenamiento en la nube.
- Fomentar la descarga para ver sin conexión: Para contenidos que se van a ver repetidamente (ej. videos de formación), descargarlos una vez consume menos energía que transmitirlos varias veces.
Puntos clave a recordar
- La IA no crea sesgos, los amplifica. La auditoría proactiva de datos y algoritmos es la única defensa ética.
- El uso de IA tiene un coste ecológico real (agua, energía). La « sobriedad digital » es una responsabilidad para las ONGs.
- La protección de datos de personas vulnerables exige una elección consciente de la infraestructura (nube vs. local), priorizando siempre la soberanía de los datos.
Cómo proteger tu privacidad digital si eres activista y temes la vigilancia masiva
Para las ONGs que trabajan en la defensa de los derechos humanos, el medio ambiente o la justicia social, y para los activistas que las integran, la privacidad digital no es un lujo, sino una condición necesaria para su seguridad y la de las comunidades a las que sirven. En un entorno de creciente vigilancia masiva, tanto por parte de actores estatales como corporativos, proteger las comunicaciones, la identidad y la ubicación se convierte en un desafío estratégico. La protección ya no puede ser una ocurrencia tardía; debe integrarse en el núcleo de las operaciones a través de un modelo de amenazas personalizado.
Un modelo de amenazas es un proceso estructurado para identificar contra quién te proteges (el adversario), qué quieres proteger (los activos) y qué capacidades tiene ese adversario. No es lo mismo protegerse de un hacker aficionado que de una agencia de inteligencia estatal. El primer paso es, por tanto, un análisis honesto del riesgo. Una vez definido el adversario, se establecen los protocolos de seguridad. Esto va más allá de usar contraseñas seguras; implica adoptar herramientas de comunicación cifrada de extremo a extremo, utilizar redes privadas virtuales (VPN) y practicar una estricta higiene digital, como desactivar la geolocalización en las fotos.
La protección más fuerte, sin embargo, es la resiliencia digital colectiva. La seguridad de un grupo es tan fuerte como su eslabón más débil. De nada sirve que un activista use una aplicación de mensajería segura si el resto del equipo sigue usando SMS o WhatsApp para coordinarse. Por ello, es fundamental establecer protocolos de seguridad grupales y obligatorios, formando a todos los miembros en su uso correcto. Como subraya la Fundación Argentina de Investigación en su análisis sobre ética e inteligencia artificial, organizaciones como la Electronic Frontier Foundation (EFF) han demostrado que la defensa de los derechos digitales es una lucha activa y a menudo legal.

La siguiente cita ilustra cómo las ONGs se han convertido en defensoras activas en el ámbito digital, llevando incluso a corporaciones ante la justicia:
La EFF (Electronic Frontier Foundation), una ONG que defiende derechos básicos de las personas en el marco de las nuevas tecnologías, inició un juicio contra Universal por uso abusivo del DMCA.
– Fundación Argentina de Investigación, Ética e Inteligencia Artificial: Notas para una política activa
Ahora que hemos explorado los principales « puntos de fractura » éticos, el siguiente paso es integrar estos aprendizajes en una estrategia de gobernanza tecnológica coherente para su organización. Comience por evaluar su riesgo más inmediato y diseñe un protocolo de mitigación. Realizar una auditoría de sesgo en sus procesos de selección o definir un modelo de amenazas para su equipo son excelentes primeros pasos prácticos.