Duda sobre AP Medición y Análisis

Hola experto... Recurro a ti nuevamente ya que una vez me diste una respuesta muy buena a una pregunta anterior que te hice sobre CMMI... Esta vez quisiera saber si tienes referencia sobre algún sitio, documentación o información que me puedas ofrecer sobre los problemas de la calidad del software basado en el tratamiento de la información... Ya que debo enfocar los problemas de la calidad del software a nivel mundial, nacional e internamente en mi universidad respecto a un inadecuado o ineficiente tratamiento de la información, pero no encuentro información precisa sobre el tema... Espero que me haya sabido explicar... Saludos y gracias de antemano.

1 respuesta

Respuesta
1
Entiendo que te refieres a la calidad de los datos cuando hablas de problemas basados en el tratamiento de la información.
El término "calidad de los datos" se viene empleando en software desde hace muchos años. Coincidiendo con el denominado Efecto del año 2000, se popularizó bastante ese término.
Al fin y al cabo que la información que te ofrece una herramienta sea buena depende de que los datos introducidos sean de calidad y que el tratamiento de los mismos sea después correcto.
Ambos puntos tienen una base estadística. A ese respecto, mi recomendación es muy sencilla. Los tratamientos estadísticos son estándares mundiales. Por ejemplo, el ANOVA o análisis de la varianza es un método para tratar datos y obtener conclusiones mundialmente aceptado y utilizado. Mi recomendación es muy sencilla: echa mano de un buen libro de estadística para saber cómo tratar los datos.
Ante esa recomendación general, la más válida desde mi punto de vista, te doy otra recomendación, muy particular.
El Banco Mundial tiene una iniciativa para la calidad y tratamiento de los datos a nivel mundial que puedes consultar en la página:
http://www.bancomundial.org/datos/panorama_calidad.html
En realidad es una reflexión estadística sobre lo que estamos hablando.
Lo puedes tomar como referencia y buscar información relativa.
Una nota: este problema del que te hablo es un poco independiente del software (si no he entendido mal tu pregunta). El software lo que hace es automatizar el tratamiento de los datos. Si la base del tratamiento es errónea (por ejemplo calcular una media cuando hay que calcular una mediana, o inferir que una población tiene un comportamiento normal cuando es binomial o algo así) la información resultante será inadecuada.
Pero vamos, que el problema en sí es estadístico, es no saber cuantos elementos hay que tomar en una muestra para asegurar que puedes inferir una conclusión que afecte a toda la población; no saber qué estadístico utilizar para hacer una comparación; o cómo validar una hipótesis; etc., y si me apuras, incluso cómo interpretar una encuesta.
Para acabar con una anécdota, Winston Churchill dijo una vez que "sólo confío en las estadísticas que he manipulado".
Hola experto... entendí muy bien lo que explicaste sobre los datos y la estadísticas... pero mi pregunta era más bien de otro ámbito, disculpa que no me supe explicar bien, así que ahora tratare de hacerlo mejor... Resulta que estudio en una universidad de ciencias informáticas, y nuestra principal labor es producir software para cualquire área, yo personalmente trabajo en el área de Calidad de Software, ya sabes, diseñando y aplicando algunas pruebas a los productos terminados.Y mi tema de tesis, para el cual estoy investigando es definir un procedimiento para aplicar de manera correcta el AP Medición y Análisis de CMMI, en los proyectos productivos de mi universidad. He investigado y se que esta AP se encarga de desarrollar y sostener una capacidad de medición que puede ser utilizada para apoyar las necesidades de información de la gerencia. Entonces en la fundamentación teórica de mi tesis debo dejar claro porque es importante tener un sistema de este tipo que controle, administre y analice correctamente la información que se va generando en todo el proceso de desarrollo de SW. Y pensé, debería hablar de los problemas que le acarrean(q le trae) a una empresa tener un erróneo, o quizás inadecuado tratamiento de esta información generada. Por eso quería saber a que tipo de problemas se puede enfrentar una empresa en la que la información que se genera debido a sus procesos no representa un recurso valioso.
Espero no haberme extendido mucho, es que quería explicarme bien... Muchísimas gracias, sus respuestas son muy buenas. Saludos.
No, si la culpa no es tuya. No te he entendido bien yo, precisamente porque estos días andaba metido en un asunto de calidad de datos y me he dejado llevar por ello.
Bueno, ahora tengo el tema más claro.
Lo que comentas es un mal típico en muchísimas empresas que no tienen o bien una buena cultura empresarial, o bien muchos años de vida.
Antes de darte una solución más concreta voy a contarte algo a nivel general que seguro que te sirve para encontrar posteriormente más información.
Las empresas de sectores consolidados desde hace muchos años tienen perfectamente reconocidos y controlados los problemas de la falta de (y por este orden) 1. toma correcta de requisitos, 2. análisis correcto de dichos requisitos, 3. diseñó de una solución correcta que satisfaga los requisitos, 4. construcción del producto adecuado (software en este caso) y 5. verificación y validación del mismo.
Este tipo de empresas son las de automoción, son las farmacéuticas, son las aeroespaciales, etc.
Son empresas en las que los errores son más evidentes y se pagan más caro. Son empresas que después de tantos años de existencia tienen una cultura de trabajo adecuada.
Si conoces por ejemplo los gráficos de control, precisamente para controlar cualquier proceso (la producción del software también), conocí una empresa de automoción donde se generaban más de 10.000 gráficos de este estilo al año. Se trabajaba bien. Los procesos estaban controlados, lo que equivale a decir, entrando ya en el tema, que toda la información útil era recogida y analizada, y se tomaban las mejores decisiones para corregir problemas.
En el mundo del software también está perfectamente tipificado el coste de los errores según te encuentres en una fase u otra del desarrollo.
Date cuenta de que conocer que se ha producido un error en algún punto es un tema de información, esto es, de medir continuamente los procesos, analizar los datos y llegar a conclusiones.
En las ingenierías, automoción por ejemplo, esto está muy asumido. En software, no. En el desarrollo del software cada cual hace un poco lo que quiere sin someterse a procedimientos concretos, lo cual hace que los procesos se midan un poco peor, y la información, y posterior toma de decisiones sea mala en muchas ocasiones.
Vamos a ir centrando el tema.
Los problemas que originan los errores en el mundo empresarial se traducen en pérdidas de dinero. Los retrasos, la pérdida de imagen, etc., son todos una función de dinero. Si pierdes imagen pierdes negocios futuros, luego pierdes dinero. Si te retrasas un mes en un desarrollo, ese mes no lo dedicas a otro proyecto, con lo que no produces más dinero ese mes. Y así sucesivamente.
Desde mi experiencia, la calidad es una forma de ahorrar dinero. Además es lo que entiende perfectamente un empresario.
Desde ese punto de vista no interesa una calidad absoluta, porque costaría mucho más que el beneficio que te reportaría el producto una vez hecho.
En calidad, como bien sabes, se trata de prevenir mejor que curar.
¿Cuánto cuestan los errores?
Un par de referencias. Juran, hace más de medio siglo ya estaba hablando de los costes de la no calidad.
En cuanto a software te recomiendo un clásico de Boehm, "Software Engineering Economics". Es un libro que tendrá fácilmente 30 años, pero es donde encontrarás todo lo que estás buscando. Mi respuesta, sin tanto rollo podía ser que te leyeras este libro. Responde perfectamente a "porque es importante tener un sistema de este tipo que controle, administre y analice correctamente la información que se va generando en todo el proceso de desarrollo de SW". Ahí lo tienes todo.
En "Ingeniería de software", de Roger Pressman también tienes un capítulo dedicado a ello. Puedes encontrar un gráfico que muestra que el coste de un error en software cuesta dinero de modo exponencial según avanza el tiempo. Esto es que un error en la interpretación de un requisito a lo mejor cuesta 20 veces más que un error en la ejecución de una prueba unitaria.
Además, en el capítulo 6 (en la quinta edición, que es la que tengo yo), habla de un tema relacionado, los riesgos de los fallos, e intenta hacer algo así como un EFMA aplicado al software, donde da también cuantos dólares te supondría tener un error de un tipo dato en el desarrollo del software.
Más referencias. En "Data Quality. The Accuracy Dimension", de Morgan Kaufmann, tienes también mucha información del coste que la "mala gestión de la información" o del "uso de datos erróneos" tiene en las empresas. Para muestra, te dejo esto, copiado literalmente:
"Many organizations have entire departments that handle customer complaints on mishandled orders and shipments. When the wrong items are shipped and then returned, a specific, measurable cost occurs. There are many data errors that can occur in this area: wrong part numbers, wrong amounts, and incorrect shipping addresses, to name a few. Poorly designed order entry procedures and screens are generally the cause of this problem."
No quiero aburrirte tampoco mucho con más referencias. Sólo un par más.
Aparte del CMMI hay otros estándares a nivel mundial de reconocido prestigio que tratan el tema de la verificación y validación del software. Por si te interesa, el "IEEE 1012-1998 Standard For Software Verification and Validation" es maravilloso.
Finalmente, "Software Engineering Program - Software Measurement Guidebook" de la NASA, que enfoca de una forma práctica cómo tratar los datos, qué cosas medir, qué métricas tomar, etc.
Resumiendo todo esto, te diría lo siguiente:
Los problemas a los que se enfrenta una empresa que no valora la información que genera es algo que está muy estudiado. Ahí arriba tienes referencias al respecto circunscribiéndonos al desarrollo del software. Como es lógico, es aplicable a cualquier otro tipo de empresa. Te podía contar muchas anéctodas. Una vez estuve en una empresa de logística que desconocía qué cliente era rentable y cuál no lo era, por que su aplicación informática era incapaz de darle un informe de actividad (facturación, envíos, movimientos, etc.) filtrado por cliente, y tenían tanta actividad que era inviable hacer ese informe de forma manual. De esta anécdota han pasado más de 5 años. Un trabajador de la empresa que es amigo mío me comentaba hace unos meses que aún siguen igual, sólo que ahora la empresa está dando pérdidas, y acaban de encargar una nueva aplicación informática que sea capaz de resolver consultas tan sencillas como la del ejemplo. Si calcularan el coste, en este caso de la falta de información por parte del software, se tirarían de los pelos.
De modo general, todo esto son los que de denominan "costes de la no calidad". Si haces una búsqueda en Google por "costes de la no calidad" encontrarás también un montón de referencias y de ejemplos de lo que estamos hablando.
En cualquier caso, y para terminar, recuerda las frases que se atribuyen a Deming:
No se puede medir lo que no se define.
No se puede controlar lo que no se mide.
No se puede mejorar lo que no se controla.
Bueno, espero esta vez haberte servido de ayuda. Ya me dirás.

Añade tu respuesta

Haz clic para o

Más respuestas relacionadas