Per Ardua ad Astra

Tanto gilipollas y tan pocas balas

Estudios científicos: cómo detectar una chapuza

112 comentarios

Muchas veces veréis en blogs científicos que uno nombra un estudio, y poco después llega alguien que se pone estupendo: que si no está aleatorizado, que si el tamaño muestral, el ciego… Algo que suena a chino (o a capullo) si quien lo lee no sabe el proceso que hay detrás de la producción científica. ¿Por qué un estudio es más fiable que otro, por qué sus conclusiones son más creíbles? Veamos la diferencia entre himbestigar e Investigar.

Viñedo de variedad tempranilloHimbestigación.

Quiero ver si un abono es bueno para las plantas. Cojo un árbol, le echo abono, y al cabo de los días lo observo: ah, pues sí que parece que está más lozano. Concluyo que el abono hace que el árbol crezca mejor, y me fumo un puro.

Cosa seria.

Quiero ver si un abono es bueno para las plantas.

  • Curvas de supervivencia en un ensayoPero no me puedo fiar de lo que le pase a un único árbol de la finca: lo mismo está a la entrada de la acequia, recibe más agua que el resto y por eso crece mejor… Así que se lo voy a echar a quinientos árboles (tamaño muestral).
  • Y, claro, igual este año hace más sol y mejor temperatura, y por eso crecen más hermosos, independientemente del fertilizante. Así que tendré que observar otro grupo de árboles, en las mismas condiciones que los abonados pero sin abono, a ver qué les pasa (grupo control).
  • Además, puede que este abono haga que los árboles necesiten más agua, aunque yo aún no lo sé. Y si lo doy en la finca que está en la vega del río es muy útil, pero si lo empleo tierra adentro, seco los árboles. De modo que fertilizaré árboles de distintas fincas (representatividad de la muestra).
  • También puede que, por casualidad (o porque soy el fabricante), abone sólo las fincas mejor regadas: ¡normal que luego los árboles crezcan más saludables! ¿No será mejor echar a suertes qué pedazos abono y cuáles no? (aleatorización) Y para asegurar que las diferencias se deben sólo a eso, los árboles tendrán que ser lo más parecidos posible entre sí. Eso también lo consigo asignando al azar (siempre que tenga suficientes elementos, claro).
  • Y, después de discurrir todo esto, yo me pregunto: ¿qué es lo que realmente me importa, que crezcan más lozanos, o que den más peras y más gordas? Hombre, si miro el verdor de los árboles sabré el resultado sin tener que esperar a cosechar… pero lo que a mí me parece frondoso, a otro puede que no. Vale, es más rápido observar la finca y ver su aspecto, que contar las peras que da cada uno y medir su calibre. Pero es que, realmente, la frondosidad o los brotes me la traen bastante floja. Yo quiero saber si usar el abono se traduce en mejores frutos (solidez de las variables de resultado).
  • Por otra parte, es verdad que medir las peras es más objetivo que la apariencia del árbol, pero lo mismo voy con el prejuicio de Es que esta finca nunca ha dado buen fruto o Este abono no puede ser bueno y, sin querer, altero los resultados. ¡No digo hacer trampa, ojo! Digo medir las peras más gordas inconscientemente, o coger las del árbol más flojo. Así que será mejor si la persona que mide los resultados no sabe qué fincas están abonadas o no: así nos aseguramos de que es completamente objetivo (enmascaramiento: simple, doble o triple ciego).
  • Perfecto. Me he devanado los sesos para planificarlo, he abonado, he recogido todo, y tengo aquí un montón de libretas con datos. ¿¿Qué coño hago con ellos?? Estadística. Procesarlos matemáticamente para que me respondan una pregunta: ¿hay diferencias entre los árboles tratados y los que no? Y, si las hay, ¿esas diferencias pueden ser casuales, o son demasiado grandes como para ser pura coincidencia? (significación estadística). Imagínate que lanzo una moneda al aire: yo espero que la mitad salgan caras, y la mitad cruces. Si la lanzo treinta veces, es posible que en diecisiete salga cara. Pero ni de coña deberían salir treinta caras: si ocurre, ¡es que la moneda tiene truco!

Ampliando un poco: estudios médicos.

Esto que parece tan sencillo es algo que se pasan por el forro en estudios que luego los periodistas corren a publicar con titulares sensacionalistas, por eso me pareció útil explicarlo brevemente. Y, dejándome de peras y manzanas, veamos a qué me refiero concretamente en el ámbito de la investigación médica.

  • Tamaño muestral. Es crucial hacer un estudio con el mayor número posible de personas, así nos aseguramos de que nuestras conclusiones serán sólidas (una gaviota no hace verano, y esas cosas). Así pues, sabemos que la simvastatina sirve para bajar el colesterol y reducir la mortalidad gracias a un estudio con más de cuatro mil participantes. Y un ensayo con más de quince mil pacientes nos dijo que añadir el caro clopidogrel a la aspirina no aporta ninguna ventaja.
  • Grupo control. Es que si no hay grupo control, ¡no puedo calcular ninguna diferencia! Tengo que comparar mi fármaco con una sustancia biológicamente inactiva (placebo) o, mejor, con otro fármaco que ya haya demostrado su eficacia. Si no, no tengo forma de justificar que las variaciones que aparecen se deben a mi intervención: puede ser desde un efecto Hawthorne hasta una pura chiripa, pero en cualquier caso, mis resultados sirven para bastante poco.
  • Representatividad de la muestra, estudios multicéntricos. Quiero saber si mi medicamento será útil cuando se lo dé a pacientes con artrosis en general, no si se lo doy a mujeres menopáusicas de 55 a 65 años sin osteoporosis y que no hayan tomado antiinflamatorios en el último mes. Cuantas más condiciones ponga, más boletos tengo para que el estudio no sea extrapolable. Y un estudio que no es aplicable a la práctica clínica, es una perfecta pérdida de tiempo y dinero.
    Obviamente, esto también tiene un contrapartida: ¿y si resulta que el medicamento sólo es útil en mujeres? Para eso está el análisis multivariante; cuando procesemos los resultados veremos que estos varían en función del sexo (o de la edad, o…) y dejaremos una sugerencia a otros investigadores: ¡eh, centraos en este subgrupo!
  • Aleatorización. Si asigno al azar quién recibe el fármaco y quién el placebo, al final tendré dos grupos iguales entre sí. Pero si en el hospital A damos el fármaco y en el B dan el placebo, ¿las diferencias se deben al medicamento, a que el A tiene pacientes más enfermos, o a que en el B se les añaden otros tratamientos?
  • Solidez de las variables de resultado. Todos sabemos que tener alto el azúcar es malo. Pero también sabemos que morirse es aún peor. Por consiguiente, a mí me da igual que un medicamento baje la glucosa: ¡lo que quiero es no morirme por la diabetes! No vaya a ser que el medicamento me baje el azúcar… pero me cause un infarto.
  • Enmascaramiento: simple, doble o triple ciego. Del mismo modo que a los catadores no se les dice qué están probando, en un ensayo no se debe decir si te estoy dando el antiguo y poco eficaz tratamiento, o la chachipastilla que te va a poner bueno en tres días. Entre otras cosas, porque quizás la pastilla no sea tan chachi… pero tú te lo creas y le digas al médico que, huy, ya estás mucho mejor de los temblores. Así que podemos «cegar» al paciente (simple ciego), al paciente y al médico que lo evalúa (doble), o al paciente, al médico, y al matemático que procesa los datos (triple ciego). Así nadie puede tener la tentación de inclinar los resultados.
  • Significación estadística. Significación clínica. Que algo sea «estadísticamente significativo» significa que, si realmente no hubiese diferencias entre las opciones ensayadas, sería la hostia de raro encontrar las diferencias de mi estudio, u otras aún mayores. Digamos que la significación estadística (que se otorga a partir del 5%, un valor elegido por convenio) es como un sello que avala mis resultados: señores, aquí hay una diferencia, y casi seguro que no es por casualidad.
    Pero precaución: significación estadística no implica relevancia clínica. Puede que un antibiótico cure la infección en 8,3 días y otro lo haga en 8,2. A eso le puedes poner las cintas que quieras, pero ya me dirás si vale la pena dar un medicamento nuevo y más caro a cambio de 0,1 días de ingreso menos.

En fin, damas y caballeros, esto es todo (¡como si fuese poco, menuda chapa nos ha soltado el cabrón!). He simplificado con la esperanza de que se entienda mejor: si no ha sido así, debajo de esta línea tenéis los comentarios.

Perpetrado por EC-JPR

octubre 5th, 2010 a las 9:59 am

112 comentarios en 'Estudios científicos: cómo detectar una chapuza'

Suscríbete a los comentarios vía RSS o TrackBack a 'Estudios científicos: cómo detectar una chapuza'.

  1. Aplausos, coño.

    RinzeWind

    5 Oct 10 at 11:21

  2. […] ese artículo que siempre han pensado en escribir y llega otro cabrón y lo hace antes y mejor? Pues eso. Muchas veces veréis en blogs científicos que uno nombra un estudio, y poco después llega […]

  3. Gracias, gracias y más gracias por hacer la investigación más entendible.

    saname

    5 Oct 10 at 11:36

  4. ¡Fantástico! ¡Mejor explicado imposible! Me quitaría el sombrero (si es que llevara…).

    opr

    5 Oct 10 at 11:42

  5. […] Estudios científicos: cómo detectar una chapuza perarduaadastra.eu/2010/10/estudios-cientificos-como-dete…  por DexterMorgan hace 2 segundos […]

  6. @RinzeWind:
    Chasgracias, tito Rinze 🙂 Y ya siento haberte robado la idea: no sabía que pensabas escribir algo así 😳

    @saname:
    Muchas gracias 🙂 Si la entrada sirve para que alguien «de fuera» lo entienda, me quedaré más que satisfecho.

    @opr:
    Con una inclinación de cabeza me doy por contento 😛 No, en serio: me alegro de que te haya gustado.

    @DexterMorgan:
    Gracias… y crucemos los dedos 😀

    EC-JPR

    5 Oct 10 at 12:12

  7. Fantástico.
    Lectura de referencia para introducción al método científico

    Josu

    5 Oct 10 at 12:25

  8. Nada, hombre. Es una de esas cosas que ronda por la cabeza, «algún día podría ponerme», pero uno lo va dejando y lo va dejando… y claro, al final pasa lo que pasa 😀

    RinzeWind

    5 Oct 10 at 12:30

  9. Me gusta el ejemplo de los árboles (sobre todo lo del puro).

    Y lo de que los periodistas corren a publicarlo ya lo creo:

    Mirar tetas alarga la vida

    Alguien se inventó el estudio, los nombres de los participantes e incluso hizo un artículo parecido a los de NEJM, obviamente nadie se molestó en ir a PubMed a comprobarlo.

    Salió en muchos artículos de prensa de muchos periódicos «de primera» en España y Latinoamérica, que lo quitaron después. (Supongo que algún alemán buscó el artículo y desató el pastel).

    Yo me reí un rato

    Dr. Wilbur

    5 Oct 10 at 12:31

  10. Con lo que mola el argumento de «pues a mi/mi abuela/mi tía/mi perro…» que llegamos al punto en clase de patología que te tienen que explicar las enfermedades psicológicas de los perros, que no son otros que las neuras de sus dueños que se creen que el perro se está muriendo (y el perro ha apredido a fingir para tener más comida jeje).

    Sobre los estudios… hicimos una vez una práctica en la que teníamos dos grupos de ratoncitos. Unos habían sido tratados con aspirina y los otros no. A ambos les poníamos un pinchacito de no se qué que escocía y teníamos que observar cuantas veces daban señales de que les dolía la tripa (son bastante exagerados con los gestos). La cosa es que yo estaba rodeada de los del grupo A y yo era B. Mi bicho, exagerado como ninguno, batió el record de quejica superando en unos 20 espasmos de dolor al siguiente más quejica. En concreto venía la gente a verlo para saber como era lo que estaban buscando así que todos decidimos que los B, por cojones, tenían que ser los que no llevaban aspirina y pobrecitos que mal lo tenían que estar pasando.

    Cuando volvió la profesora descubrimos que el mío estaba bien protegido por su aspirina y no debía dolerle nada, simplemente era especialmente quejica y se quejaba de que le habían dado un pinchacito. Habíamos actuado toda la práctica bajo la idea de que B eran sin aspirina y los de al lado con aspirina (la diferencia de datos entre los de al lado eran bastante bastante grande). Pusimos los datos en la pizarra, chi-cuadrada (o ji-cuadrada que dicen otros, para gustos, los colores) y ¡anda! pues si que estábamos equivocados.

    La mejor clase sobre la importancia de los ciegos en los estudios científicos gracias a una práctica de farmacia =D

    Bea

    5 Oct 10 at 12:33

  11. Muy bueno, un articulazo. Enhorabuena!

    Ntx

    5 Oct 10 at 12:37

  12. Plas, plas, plas (aplausos)

    Explicado claro y sencillo, para que lo entienda todo el mundo.

    Saludos

    Fisilósofo

    5 Oct 10 at 12:40

  13. Buen comentario, pardiezUn post excelente. Sin embargo me gustaría añadir una coda: si un estudio cumple estas condiciones es casi seguro que es serio, pero no quiere decir que los que no las cumplan no lo sean. En muchos casos, es imposible cumplir alguno de los requisitos que mencionas, y sin embargo, se pueden seguir sacando conclusiones científicas serias.
    Y justo el caso de una finca con árboles es un clásico. Es prácticamente imposible conseguir una finca completamente homogénea y suficientemente grande como para que quepan suficientes árboles. Imagina que la finca está situada a la vera de un río que discurre de E a O y que además la zona E tiene más sedimentos. El sol determina otro gradiente de N a S, por lo que en el S de la finca las plantas están más calentitas e iluminadas. Como sabemos a priori que tanto el agua como el sol, como los sedimentos son factores que influyen en el crecimiento de las plantas, podemos incluirlos en el diseño del experimento de antemano. Por eso en este caso la aleatorización no es lo mejor. Aquí lo que cuadra es dividir la finca en una matriz determinada por el eje río y el eje sol. Imagina que queremos probar cuatro tratamientos de abono. En este caso, en lugar de distribuir el abono aleatoriamente entre los árboles de la finca, lo que hay que hacer es dividir la finca en una matriz 4×4 y echar cada tratamiento de abono de tal forma que en cada columna y en cada fila de la matriz sólo haya un tratamiento de cada tipo (incluído el control). Justo como en un sudoku, por cierto. Así nos aseguramos de que probamos cada abono en cada una de las condiciones de agua y luz posibles. A esto se le llama un diseño de cuadrados latinos y aunque es más viejo que los caminos, es tremendamente eficaz para este tipo de problemas.
    Cuento esto porque estoy completamente de acuerdo contigo: es muy sencillo detectar cuándo un estudio científico no es serio. Generalmente falla en alguna de las premisas básicas que mencionas. Sin embargo, quería romper una lanza en favor de esas disciplinas científicas en las que los experimentos ideales son muy complicados de hacer y sin embargo avanzan gracias a herramientas estadísticas avanzadas, diseños experimentales no standard y mucho devanamiento de cabeza.

    Ponzonha

    5 Oct 10 at 12:47

  14. Hola,

    Nos hubiera gustado enviarte un email contándote nuestras novedades en SALUDENLARED.COM, y de paso vieras cómo hemos dado de alta tu blog en nuestro directorio de blogs de medicina (www.saludenlared.com/blogs), pero como no sabemos tu mail, me he tomado la libertad de contártelo aquí en tu propio blog , si quieres ver cómo te hemos dado de alta, accede primero para ver cómo lo hemos comunicado al resto de blogeros como tu (http://www.saludenlared.com/comunicados/blogs-medicina/index.html) y desde donde podrás acceder a ver tu blog de medicina en nuestro portal de saludenlared.com.

    Te deseamos todo lo mejor.

    Un abrazo,
    Equipo de SALUDENLARED.COM

    Carla

    5 Oct 10 at 12:56

  15. Deberías haber añadido el ‘Objeto del estudio’, que tambien sea mínimamente serio. Por que, ya me explicarás tú para qué sirve saber que los vampiros chinos son más eficientes en la cópula si la vampira le hace previamente una felación. Y según parece, el estudio cumplía todos los requsitos enumerados en tu artículo.

    En fin, para casos, los IgNobel. 😛

    GLurPS

    5 Oct 10 at 13:21

  16. Lágrimas de emoción al leerlo, me estoy enamorando de tí post a post 😉 Yo les mandaba 20000 copias de esta entrada en papel fosforito a los de la PowerBalance y similares para que las repartan junto a su producto a ver si los incautos van aprendiendo.

    Por cierto, tienes una errata, se dice «Himbestigazion» 🙂

    Pablo

    5 Oct 10 at 13:22

  17. Yo sí que llevo sombrero así que me lo quito. Perfectamente explicado para los profanos.

    Moktir

    5 Oct 10 at 14:11

  18. Muy bueno y necesario. Muchas veces se culpa injustamente a la estadística por arrojar valores absurdos cuando en realidad se trata de una manipulación parcial o de un incumplimiento de los preceptos a la hora de realizar los muestreos convenientemente.

    Por no hablar del sensacionalismo que invade últimamente cualquier tipo de descubrimiento científico, incluso algunos científicos caen en él cuando se les pone un micro delante (caso del reciente exoplaneta «habitable»).

    El método científico es un gran desconocido en el público general que se queda únicamente en pensar que basta con ensayar y extraer conclusiones, como si no se hubiera evolucionado o como si la sistematización se quedara tan en la superficie.

    En fin, muy buen post a fin de cuentas.

    MiGUi

    5 Oct 10 at 15:06

  19. vandal1000

    5 Oct 10 at 15:45

  20. […] This post was mentioned on Twitter by Julián Paredes, Mr. Dodo, Darío Ruellan, Alfredo Reino, Carlos Velasco and others. Carlos Velasco said: Estudios científicos: cómo detectar una chapuza http://bit.ly/danRss […]

  21. genial, impresionante el artículo. Pero cuando hablas de medicina podrías mencionar también la importancia a la hora de elegir las muestras, pues según qué tipo de enfermedad estés estudiando, es probable que tengas que buscar a los enfermos en hospitales (y no en la población, lo cual sería más representativo de la sociedad) y, por lo tanto, se dará el llamado «Sesgo de Berkson», que consiste en que los casos seleccionados para tu estudio resulta que son los más graves (esto ocurre también cuando el investigador no quiere pensar mucho y en vez de buscarlos en una población va directamente al hospital a por ellos).

    Además, existen diferentes estudios de medicina, que si «casos y controles» (que es lo que más o menos has descrito), «Cohortes», ensayos clínicos, ensayos comunitarios… es un tema muy interesante, pero algo abstracto.

    Por cierto, soy estudiante de medicina de tercero. El año pasado cursé una asignatura, epidemiología, y es por eso por lo que te digo lo que te digo. Vamos, que no soy infalible, pero que no lo he sacado de la wikipedia 😉

    Un saludo y de nuevo: Impresionante artículo

    Juan

    5 Oct 10 at 15:54

  22. Muy interesante. Sólo un apunte, creo que es más correcto llamarlo enmascariamiento en vez de ciego.

    Ulises

    5 Oct 10 at 16:01

  23. Muy buen artículo. Así se divulga la ciencia! =)

    ernie_aka

    5 Oct 10 at 16:19

  24. Buen comentario, pardiezPues yo también me uno a las felicitaciones. Una vez más, sensacional entrada, además de muy útil.
    Pero como todo es mejorable y servidor es un pijo, me gustaría sugerir un aspecto más.
    Como muy bien dices, el color de los arbolitos puede no resultar el dato más relevante a la hora de establecer la valía del nuevo abono a testar. Evaluar las peras será siempre mucho mejor. Aunque a veces, por condiciones experimentales (p.ej. puede que no podamos esperar a tener las peras para decidir), uno debe recurrir a lo que se denominan marcadores subrogados, como el verdor de los árboles. Una característica que +/- esté asentada como indicador del resultado final deseado. Aunque el valor del estudio disminuirá, claro.
    Pero sea un marcador subrogado (el verdor de los árboles), o sea directamente la evaluación del producto final (la pera), al inicio del estudio debe estar bien definido qué se va a evaluar (objeto de medida), cómo (qué medida), y qué resultado se considera óptimo (cómo de distinta tiene que ser la medida para considerar el estudio positivo).
    Acudiendo a otro símil, si vamos a jugar un partidillo ponme los postes fijos a una medida determinada y siempre la misma para todos, no me los pongas luego más separados si tienes que tirar un penalti y más juntos si tienes que defenderlo.
    Ha ocurrido muchas veces que una compañía farmacéutica (por ejemplo) ha iniciado un estudio con un objetivo y estableciendo unas medidas, para cambiar a lo largo del estudio, o una vez finalizado y a la vista de los resultados.

  25. Y lo mismo pasa en sociología. Estudios y encuestas a la carta, normalmente para la política y las elecciones, que ocupan portadas y hacen a todo el mundo opinar, pero que no resisten un análisis serio.
    En sociología hay otros dos problema más:
    uno, la credibilidad social. Tu haces un estudio científicamente válido, lo presentas y aparece alguien con «carisma» que dice: «pues siempre se han hecho las cosas de otro» o aquello de «pues yo conozco un caso que…..» y la gente no cree en el estudio serio. Veanse las recomendaciones de integración de inmigrantes por la sociología y por otro lado los argumentos populistas que recogen más votos. O los estudios de 2006 sobre la burbuja inmobiliaria y por otro lado aquello de «los pisos no bajan» ¿A quién creía la gente?
    Segundo problema: la reflexividad (con v, de reflexio en latin). Tu haces una encuesta bien hecha donde dices que el partido A ganará y cuando se publica en prensa inmediatamente se movilizan personas que antes se abstenían o votaban otra opción para votar a B y que no gane A. Cambió el universo y la encuesta es papel mojado.
    En fin, por qué me haría sociólogo, estudiando gente, y no biólogo o geólogo o físico…….

    Pensador

    5 Oct 10 at 16:48

  26. Hago un estudio sobre un medicamento. Quiero establecer la efectividad de dicho farmaco. Uso 3 grupos:

    Grupo 1: 50 pacientes – Les damos el medicamento.
    Grupo 2: 50 pacientes – No se les administra el medicamento.
    Grupo 3: 50 pacientes – Se les administra un placebo.

    Del grupo 1, al cabo de 2 semanas, mejoran 30 pacientes (x1) y los otros 20 empeoran o permanecen igual (y1).
    Del grupo 2, al cabo de 2 semanas, mejoran 5 pacientes (x2) y los otros 45 empeoran o permanecen igual (y2).
    Del grupo 3, al cabo de 2 semanas, mejoran 18 pacientes (x3) y los otros 32 empeoran o permanecen igual (y3).

    Estimo que

    Si (x1-x2)/(y1+y2) y esta cifra se acerca a 1 el medicamento ofrece una buena respuesta.
    Si esta ecuación ofrece un número cercano a -1 el medicamento ofrece una respuesta mala o penosa.

    Por otro lado

    Si (x1-x3)/(y1+y3) y esta cifra se acerca a 1 el medicamento ofrece una buena respuesta.
    Si esta ecuación ofrece un número cercano a -1 el medicamento ofrece una respuesta mala o penosa.

    Se considera demostrado que un medicamento es efectivo si cumple con ambas especificaciones.

    Un estudio presentado tal y como aparece ¿podría ser considerado serio?

    Enrique

    5 Oct 10 at 16:59

  27. J..er macho lo has clavado.

    Ya era hora que alguien nos explicara a los escépticos no científicos como funciona esto, hasta yo con lo burro que soy lo he entendido perfectamente. Buen trabajo

    Muchas gracias.

    Stilgar

    5 Oct 10 at 17:38

  28. Estudios científicos: cómo detectar una chapuza…

    Muchas veces veréis en blogs científicos que uno nombra un estudio, y poco después llega alguien que se pone estupendo: que si no está aleatorizado, que si el tamaño muestral, el ciego… Algo que suena a chino (o a capullo) si quien lo lee no sabe el pr…

    joneame.net

    5 Oct 10 at 18:45

  29. ¿Que coño puro? ¿Qué coño aplauso? Genuflexión señores, genuflexión, loas y alabanzas es lo que se merece el dueño de este blog.

    Doctor Mapache

    5 Oct 10 at 18:47

  30. […] vía Estudios científicos: cómo detectar una chapuza at Per Ardua ad Astra. […]

  31. Muy bien explicado. Un inciso. Esto no es del todo correcto:
    «Aleatorización. Si asigno al azar quién recibe el fármaco y quién el placebo, al final tendré dos grupos iguales entre sí.»
    Muchas veces los grupos son diferentes. Se aleatoriza a fin de que el metodo de asignar el «tratamientop» no introduzca sesgos, no para que los grupos sean iguales.
    Saludos
    PS: Estoy en un teclado sin acentos. Disculpas.

    lacucafera

    5 Oct 10 at 18:58

  32. En hora buena
    Ahora me explico por qué los de D a n o n e han tenido que retirar la publicidad del A c t i m e l, ese que a y u d a a las d e f e n s a s, … Parece que nos habían tomado por himbésiles.
    Salud, saludos y buenos alimentos.

    Thomas Paine

    5 Oct 10 at 19:20

  33. Felicidades por una explicación para el pueblo llano absolutamente entendible.

    Ana

    5 Oct 10 at 19:39

  34. Pues si eres tan listo no mires blocgs mejor mira la tele que ahi seguro que encuentras una investigacion buena para tu cerebro superdotado.
    Postdata:para saber si un articulo es bueno solo hay que ver de que habla,en este caso solo habla paja,critica en general sin profundizar en nada

    trini

    5 Oct 10 at 19:51

  35. totalmente de acuerdo con Doctor Mapache!
    la iluminación cognitiva de manera sencilla está escrita en cada post de este blog!!
    ya lo decía Einstein «…si lo sabes explicar a tu abuela y tu abuela lo entiende.»

    ecept

    5 Oct 10 at 19:54

  36. Hay otra forma de saber si se trata de una himbestigazión o de un ensayo clínico, como es el caso de A c t i m e l, que al revisar por la autoridad de seguridad alimentaria el-científicamente-probado y el clinicamente-testado, tiene que retirar la publicidad, porque no se sostiene.

    JL Salgado

    5 Oct 10 at 19:58

  37. Lo que cuenta es el gran problema de muchos estudios científicos de cualquier rama científica, que se aportan datos y que a priori son buenos, pero luego cuando te vas a leer Material y Métodos, te fijas en que los tamaños de muestra son pequeños, el tipo de análisis no es muy cuantitativo o se prueba sobre grupos poblaciones iguales o muy similares.

    El problema que muchas veces una muestra grande, requiere mucho tiempo y sobretodo dinero, que en bastantes casos no hay.

    Y lo mismo vale para botánica, zoología, ecología… o ponga aquí la disciplina científica que prefiera.

    andr

    5 Oct 10 at 20:29

  38. A tus pies.

    Trisa

    5 Oct 10 at 20:44

  39. Brutal! Y en un momento perfecto!! Justo salgo de clase de «Metodología de la investigación» y la verdad es que esto está mucho más claro! =)

    indio

    5 Oct 10 at 21:10

  40. Muy bueno. Y muy claro.

    Xabier

    5 Oct 10 at 21:13

  41. Demuéstralo... si puedesPues a ver ahora cuántos de todos estos anticharlatanes y defensores del método científicos ponen en duda infinidad de cosas que se dan por sabidas y verdades absolutas demostradas por mil estudios, que en realidad, nunca se han demostrado con un estudio serio, y al revés, han sido desmontadas una y mil veces por estudios serios a los que no se les da cancha porque no molan y van contra el pensamiento único.

    Va el primero:

    El humo de tabaco es perjudicial para los no fumadores.

    1, 2, 3, respondan otra vez.

    KK89

    5 Oct 10 at 22:01

  42. Como un comentarista anterior, yo me quitaría la gorra, pero como estoy bajo techo la tengo en el recibidor. En cualquier caso, fenómeno, lo has clavado, la de explicaciones que me voy a ahorrar a partir de ahora.

    Y ahora las preguntas, en el comentario de trini leo:

    «Pues si eres tan listo no mires blocgs mejor mira la tele que ahi seguro que encuentras una investigacion buena para tu cerebro superdotado.
    Postdata:para saber si un articulo es bueno solo hay que ver de que habla,en este caso solo habla paja,critica en general sin profundizar en nada»

    Y mis preguntas son : ¿En la tele ponen información científica?, o aún mas ¿ponen información?, ¿es necesario un cerebro superdotado para entender castellano?. Y si no distingue entre paja y arboles, ¿sabrá distinguir entre paja y viga?

    Creu

    5 Oct 10 at 22:57

  43. Me encanta el comentario de La trini =P Mucha paja y poca profundidad… si es que…

    Tanta declaración de amor y palmadita al ego… esto es lo más inocente que me he atrevido a comentar. Ahora, que yo me alegro =)

    Bea

    5 Oct 10 at 23:07

  44. ¡Mare meua, qué cantidad de comentarios! 😀 Me alegro… aunque me va a costar un buen rato contestar todos 😳 Empecemos:

    @Josu:
    Vaya, un grande como tú por aquí 😳 Me halaga que te haya gustado la entrada 🙂

    @RinzeWind:
    Te entiendo: me pasa igual con la ducha… 😛

    @Dr. Wilbur:
    Joder: nombre del autor, revista… ¿¿Tanto cuesta tirar de Google?? Pero ya ves qué fuente tienen: «Agencias». Me encantan esos medios que copian y pegan las noticias que les pasan: no sé entonces de qué se extrañan cuando se les hunde el negocio.

    @Bea:
    Para que luego digan que los gatos son listos… Y el ejemplo es perfectamente ilustrativo 😀 Espero que el resto de tus compañeros también aprendiera la moraleja.

    @Ntx:
    Muchas gracias 🙂

    @Fisilósofo:
    Era la idea: perder precisión a cambio de inteligibilidad (justo lo contrario que acabo de hacer con esta palabra 😛 ). Pero me parece que el trueque merece la pena en este caso.

    @Ponzonha:
    Antes de meterme en harina, te agradezco el comentario. Voy a tener que crear un iconito como el de «chorrada» pero que diga «MVC», para ponérselo a aportaciones así 🙂
    Asimismo, como le decía a Fisilósofo, el artículo es una simplificación de los ensayos clínicos aleatorizados (no he hablado de seguimientos, no he metido casos y controles…); por ejemplo, sería imposible hacer un ciego en estudios de cirugía (¿te hago una cicatriz de mentira? ¿le tapo los ojos al cirujano?).
    Aparte de eso, muchas gracias por la explicación que has dado 🙂 No tenía ni idea de esos detalles; de hecho, puse el ejemplo agrícola porque no quería condicionar hablando de Medicina desde el principio, pero ya veo que estrictamente no es correcto 😳

    @Carla:
    Gracias por escribir; la dirección de contacto aparece en el apartado «Manual de Uso y Disfrute», el primer enlace de la barra lateral.
    Asimismo, no hay problema en que el blog sea indexado, pues ya lo hacen automáticamente muchos otros servicios. Tan sólo quiero hacer notar que, en el caso de que se utilizase algún contenido, este está licenciado como Creative Commons BY-NC-SA (a menos que se indique de otra manera).
    Un saludo.

    @GLurPS:
    No te rías de los IgNobel, que se empieza por ahí y se acaba yendo a Estocolmo 🙂

    @Pablo:
    JAJAJAJA Ya me ha dicho la novia que se está poniendo celosa 😀 En cuanto a la errata, la z/c es admisible, pero tienes razón con lo de la tilde: ahí me he pasado… 😛

    @Moktir:
    Muchas gracias 🙂

    @MiGUi:
    Eso del planeta habitable me recuerda esta recomendable entrada, para echarle un vistazo si hay tiempo 🙂
    En cuanto a la estadística y los resultados absurdos, no podemos evitar que ciertos científicos los perviertan con intenciones torticeras. Pero para eso es crucial saber buscar los fallos y poner todo en su justa medida.

    @vandal1000:
    jejeje Buena entrada, sí (los enlaces a vídeos son un punto :D).

    @twitts varios:
    Así, así, id y contad lo que habéis visto 😛 ¡Gracias!

    @Juan:
    Efectivamente, es lo que respondí antes a Fisilósofo y Ponzonha: esta entrada es una simplificación de un ensayo clínico aleatorizado (el sesgo de Berkson aparece en un casos y controles, cuando seleccionas los controles de entre una población no representativa, como bien explicas). Los tipos de ensayos que tú citas son unos pocos de todos los que se pueden hacer, con variantes de todo tipo (como la que explicaba Ponzonha, o los ensayos de inicio demorado). Asimismo, tampoco he hablado del procesamiento de variables (empezando por la chi-cuadrado y acabando por la regresión de Cox) ni de otras muchas cosas; por eso en Medicina se estudian varias asignaturas de estadística/epidemiología en distintos cursos, ¡y sólo nos da para oler el guiso!
    Por cierto, me alegra que te guste el tema: hagas la especialidad que hagas, saber estadística es básico, más incluso que Fisiología o Anatomía.

    Y dicho esto… ya me ha dado la una, así que igual es momento de estudiar un poco. Mañana seguiré respondiendo los comentarios pendientes 🙂

    EC-JPR

    6 Oct 10 at 01:04

  45. MUY buenooo!!

    .pep

    6 Oct 10 at 01:16

  46. […] título del autor (EC-JPR) es perfecto: Cómo detectar chapuzas; así que no voy a decir nada más. Una lectura que es material de primeros auxilios ante la prensa […]

  47. Fantástico!!
    Bravo bravo bravo!
    Imposible explicarlo de manera más sencilla

    Emara

    6 Oct 10 at 10:05

  48. Supongamos que un laboratorio farmaceutico dispone de muchos recursos. Realiza 10 estudios parecidos en paralelo y uno da un resultado positivo con un umbral del 5%. Publica ese estudio y calla el resto.

    El silencio sobre los 9 estudios parecidos esconden la trampa.

    ljc

    6 Oct 10 at 12:53

  49. Hola,

    Muy buena explicación

    Te propongo recopilaciones con ejemplos de estudios ridículos

    Recuerdo que en las noticias de la tele (fuente de sabiduría) dijeron lo siguiente…

    Según unos estudios presentados en un congreso de cardiólogos en Barcelona, «fumar protege ante un infarto»

    La razón «estadística» era aplastante.
    Se mueren más NO FUMADORES (significativamente) del primer ataque al corazón que de fumadores.

    Ala, a fumar.

    Aunque si alguien investigaba por internet tan sensacionalista resultado…
    Se ve que despreciaron la correlación entre el primer infarto y la edad.

    Lo que sucede en realidad, es que si te da un infarto a los 35, es más fácil superarlo que si te da a los 50.
    «Curisamente» los fumadores tienen infartos con una edad promedio muy inferior

    También me acuerdo del estudio sobre el colesterol y el jamón de pata negra.

    Para este estudio, seleccionaron a un montón de ancianos en asilos.

    En el desayuno, la comida y cena, se añadía unas raciones de jamón de pata negra.

    El resultado del estudio fue DEMOLEDOR…

    «No hemos podido determinar cómo les ha afectado el jamón al colesterol de los abuelos y mucho menos si estos resultados son extrapolables. PERO SÍ podemos decir, que han disfrutado de este estudio y han sido más felices»

    jose

    6 Oct 10 at 14:27

  50. Muy buen artículo, solo añadir que muchas veces lo importante no es detectar si una sustancia es capaz de realizar una función específica en contra del placebo,…, lo importante es saber si esa sustancia es capaz de hacer el efecto mejor que otra. Me refiero por ejemplo cuando se dice que los polifenoles hacen crecer el pelo, …., y que? si esta realizado en ratones, y lo mas importante: pero ¿hace mejor su esta función que los medicamentos aprobados para la calvicie tipo minox o finas?
    No se si me explico,…., es útil tratar de mejorar.

    Armandein

    6 Oct 10 at 15:03

  51. A sus pies.

    Emtochka

    6 Oct 10 at 15:59

  52. Muy bueno. 😉

    Daniel Vázquez

    6 Oct 10 at 16:08

  53. Ale, ya no tengo que repasarme la estadística… Así a bote pronto 2 o 3 netas más a tu salud!! xDD

    Un saludo!

    Mike MC

    6 Oct 10 at 16:11

  54. Para GLurPS:

    En qué parte de China es eso?

    A mí no me importa que sea una vampira, total, mi mujer no me hace caso ;-P

    Nombre_alias_o_num_placa

    6 Oct 10 at 16:19

  55. También podría titularse «Vocabulario básico del buen investigador» ya que en definitiva es un resumen del glosario habitual convenientemente adaptado a todos los públicos.

    Para los que quieran ampliar y profundizar en dicho vocabulario ahí va un enlace:

    http://www.nova-transnet.com/zonanova/downloads/documentos/Glosario%20de%20investigaci%C3%B3n%20cl%C3%ADnica%20y%20epidemiol%C3%B3gica.pdf

    Sr. Lobo

    6 Oct 10 at 19:25

  56. Hola! te sigo desde hace tiempo y quería aprovechar esta entrada para felicitarte (muchas otras entradas me han gustado, pero mira, alguna tenía que ser la primera para empezar a comentar). Otro gallo nos hubiera cantado en primero si nos hubieran dado la estadística así 🙂
    un abrazo de otra MIRera, y muchos ánimos!!!

    Clarisa Medalarisa

    6 Oct 10 at 22:24

  57. Como distinguir un estudio científico serio….

          Muchas veces nos preguntamos como dos estudios científicos sobre la misma materia pueden……

  58. Sigo respondiendo, a ver cuántos finiquito hoy 🙂

    @Ulises:
    ¡Toda la razón! 😳 Estuve pensando a ver cómo se decía en español… ¡enmascaramiento, joé! Lo corrijo, y muchas gracias.

    @Ernie:
    Gracias por el halago 🙂

    @fuentedelaeternajuventud:
    Definitivamente, voy a hacer ahora mismo el iconito de «Comentario interesante». Perfecta tu explicación: el primer párrafo me ha traído a la mente el caso del cáncer de cérvix y la vacuna del VPH, en el que aún no se ha demostrado que se reduzca la mortalidad ni la incidencia de cáncer por el gran período de inducción y latencia de éste. Ahí no quedan más narices que usar variables intermedias… pero reconociendo que no es lo ideal. Y por otra parte, obviamente todo sujeto de investigación también debe seguir una evolución.

    @Pensador:
    Es que los sociólogos tenéis un trabajo muy difícil: cuantificar la estupidez humana. Y para eso creo que no se ha descubierto aún la escala que lo cubra… Tu comentario me ha recordado este artículo del Boston Globe en el que, con otras palabras, dice que a la gente se la pela la evidencia que le presentes: cada cual cree lo que quiere creer.

    @Enrique:
    Tengo que hacer un par de cuentas, pero grosso modo creo que ese estudio no es bueno. Mañana veré si es malo, pero de entrada has omitido uno de los puntos, que es la solidez de las variables 😉 ¿Qué es mejor: ver si un medicamento baja la tensión, o evaluar cuánto la baja? Según tu esquema, has perdido datos por el camino: has transformado una variable continua (mejora medida en cierta unidad) en una dicotómica (si/no mejora).
    Respecto al procesamiento, en el mundo real se haría una chi-cuadrado, que es comparar lo obtenido con lo esperable por el azar. No obstante, me parece que tú estás haciendo algo parecido por otro camino: mañana lo miro y te comento 🙂

    @Stilgar:
    De nada 🙂 Me alegra que te haya podido resultar útil.

    @joneador:
    Chasgracias 🙂

    Y aquí me quedo contestando hoy 😳 Mañana, más y mejor (o algo así).

    EC-JPR

    6 Oct 10 at 23:56

  59. ¡Qué descubrimiento de blog! Me lo apunto. Esto es lo que se llama «instruir deleitando».

    Gracias, besos,
    Belén

    Belentxo

    7 Oct 10 at 07:21

  60. Felicidades por el articulo, de los que hacen que un blog vaya directamente a la carpeta de favoritos.

    lucio cornelio

    7 Oct 10 at 09:06

  61. Por una vez voy a comentar sin haber acabado de leer los comentarios anteriores, luego ya me pasaré a comentar más en serio, pero es que… es que…

    ¡YO era uno de los sujetos voluntarios para el estudio de Kogevinas! (el que muestras como himbestigación) Este señor y su grupo son muy buenos (no es de mi institución, pero somos vecinos de edificio) pero en este estudio se buscaba una cosa muy concreta, y lo que haya interpretado la prensa no simepre es culpa del investigador, ni siquiera del departamento de comunicación de su institución.

    Ala, sigo leyendo y vuelvo a comentar sobre el tema en sí. Que ya estoy pensando en cosas que decir pero tengo que acabar de leer… ya veo que han comentado que el doble ciego no es siempre posible: marcas de cirujía), pero el que recoge los valores que nos interesan para el estudio sí pueden estar cegados al tratamiento, con tal que ni los pacientes ni los médicos que los tratan mencionen el tratamiento/procedimiento en sí. O el tema de aletorización, que en tratamientos chungos con más de una opción, es éticamente difícil no ofrecer la distitas alternativas y los COmités de Ética te los pueden tirar para atrás.

    Me callo y leo, vuelvo luego.

    Okok

    7 Oct 10 at 10:57

  62. De hecho, volveré esta noche, que ahora tengo varias entrevistas cognitivas con pacientes para testar un cuestionario nuevo …¿otra entrada, quizá? 😉

    Okok

    7 Oct 10 at 10:59

  63. ¡Ah! La estadística, el noble arte de la mentira en matemáticas. En educación secundaria nos obligaron a ponerle a los nenes como nota mínima, aunque no se presentara en todo el curso, un uno en lugar del ignominioso e infame cero. Como consecuencia de la gran medida pedagógica la nota media subió unas décimas y el pedabobo de turno ascendió a politiquillo con despachito.

    Otro día hablamos de pasar de curso con todo suspenso.

    666

    7 Oct 10 at 23:01

  64. 666, no pongas el dedo en la llaga.

    Lobo

    7 Oct 10 at 23:19

  65. A mi me molan más los informes de evaluación esos que hacen (tipo informe PISA o primo hermano) en que por responder erróneamente a la pregunta los criterios de evaluación te obligan a ponerle al logsiano un punto…
    Y un dato curioso: el inspector este año nos ha dicho que nos va a mirar el «cuaderno de notas del profesor»… Seguro que opinará largamente sobre las calificaciones que ponemos. Y nos obligará a aprobar a todo dios. Que luego queda tela de bien en los informes y en las estadísticas…
    Y otro punto para partirse de risa: este año, según me han comentado, entraban en vigor las adaptaciones curriculares en bachillerato…¡Toma ya! ¿Llegarán también a la facultad?
    Así que, 666, te ruego que hables de medicina y cosas afines. Que es más ameno. Y a mí no me entra la mala leche y la agresividad…
    Salud

    Lobo

    7 Oct 10 at 23:32

  66. Venga, ya van tres días desde que publiqué esto, así que por mis muertos que hoy respondo todos los comentarios. Enrique, me temo que el tuyo será una excepción de momento 😳

    @Doctor Mapache:
    No te me genuflexes demasiado, a ver si va a parecer lo que no es… 🙄 😛

    @Pajareo:
    Muchas gracias por citar la fuente 🙂

    @lacucafera:
    Sí, sí es correcto; de hecho, una de las ventajas de la aleatorización es corregir por factores de confusión conocidos y desconocidos, lo cual sólo se consigue si ambos grupos son idénticos entre sí (una aproximación al modelo contrafáctico).
    Es más: para asegurarnos de esto, tras aleatorizar se comparan ambos grupos y los datos se muestran generalmente en la tabla 1 del estudio. Si hubiese alguna diferencia, se ha de realizar un análisis por subgrupos para controlar que no afecta al resultado.

    @Ana:
    Me alegra que te haya gustado 🙂

    @trini:
    Pero míralo qué mono, cómo intenta trollear 😀

    @ecept:
    Dios, cómo me ha gustado eso de la iluminación cognitiva… Espera, que ponga ambientación musical 😛 🙂
    En cuanto a la cita, la suscribo completamente 😉

    @andr:
    Efectivamente: hacer estudios grandes cuesta un pastizal… que muchas veces sólo puede aportar la industria farmacéutica. Y ahí empezamos el debate 😉

    @Trisa:
    Te digo lo mismo que al Mapache 😛

    @indio:
    ¡Muchas gracias!

    @Xabier:
    Gracias, paisano 🙂

    @Thomas Paine – JL Salgado:
    Según tengo entendido, lo único que probaron es que comiendo más bichitos de los suyos luego había más bichitos de esos en la mierda (o cagadas parecidas en otros estudios). De ahí a la cura del SIDA, un paso.
    Me he tomado la licencia de corregir la URL de tu blog

    @KK89:
    «Mil y una veces por estudios serios»… y que yo te agradeceré que cites. Por mi parte, he hecho la tarea: simplemente busqué passive smoking lung cancer y así, a botepronto, encontré uno, dos y tres (y cuatro y cinco, simplemente clicando en enlaces). ¿Quieres que siga con la incidencia de cardiopatía isquémica, por ejemplo? Nah, sería estúpido: en el Surgeon General ya han tratado esto con todo detalle.

    @Creo:
    Muchas gracias. Y no te preocupes por ese comentario: no llega ni a aprendiz 🙂

    @Bea:
    Bueno, tú tienes excusa, que luego te toca aguantar al tal Ego 😛

    @.pep:
    Gracias.

    @objetivolima:
    Gracias por la mención 🙂

    @Emara:
    jajaja ¡Gracias por tanto entusiasmo! 🙂

    @ljc:
    Has dado en el clavo, amigo 😉 Sesgo de publicación, que lo llaman. O por qué hay que fijarse en las fuentes de publicación.

    @Armandein:
    Efectivamente: como indico en la entrada, lo ideal sería comparar todos los fármacos con alternativas viables, comprobadas. Sin embargo, a fecha de hoy las agencias reguladoras (FDA, EMA) sólo exigen demostrar superioridad frente a placebo. Por eso tenemos tantas moléculas que no aportan nada.

    @Emtochka:
    Entre el Mapache, Trisa y tú, vais a dejarme limpios los zapatos 😛

    @Daniel Vázquez:
    Gracias.

    @Mike MC:
    JAJAJAJA ¿Significa eso que, si sacas plaza, me invitas a algo? 😛

    @Nombre_alias_o_num_placa:
    ¿Has probado con mermelada? 😛

    @jose:
    JAJAJA Oye, ¿sabes si están haciendo algún otro estudio como el del jamón? ¡Yo me apunto! ¡Muerte por kiki! 😀

    @Sr. Lobo:
    También me sirve ese otro título 🙂 Y ya me he descargado el texto enlazado: las explicaciones son breves, pero está muy bien para una duda puntual.

    @Clarisa Medalarisa:
    Pues, ahora que ya has empezado, no te cortes y sigue comentando, que toda aportación es bienvenida 🙂 Muchas gracias, y muchos ánimos para ti también: ¡ya no nos queda nada!

    @TuCritica.es:
    Gracias por el enlace.

    @Okok:
    Veamos… El estudio está «bien hecho», si no tenían pretensión alguna. Lo que me reventó es que de ese estudio no se concluye ni de coña lo que pone en la nota de prensa. Eso, y detalles como hacer afirmaciones demoledoras autocitándose: «diga lo que diga el IARC, el agua potable causa cáncer… como yo demostré hace unos años» (¡¡en un estudio ecológico!! [facepalm]). Quizás el equipo tenga buena calidad técnica, pero leí ese estudio en diagonal, y no me olió nada bien. Desde un «¡queremos publicar!» a un «porque necesitamos pasta».
    Respecto a la aleatorización, obviamente no siempre es posible. Del mismo modo que no es posible hacer un ensayo clínico sobre ciertas variables (asigno 1000 personas a conducir con cinturón y 1000 a conducir sin, ¡a ver si es peligroso!), tampoco se pueden hacer grupos control en ciertos casos (por ejemplo, si el pronóstico de cierto cáncer es muy malo, se acepta que cualquier tratamiento será mejor, y se compara con controles históricos). Pero entrar en esos detalles se iba del propósito de la entrada 😳

    @666:
    Di que sí: no me saques ese tema… que se me hincha la vena 👿

    @Lobo:
    Es que está claro que, si los estudiantes no aprueban, no es porque no estudien: ¡es porque el examen es difícil! Así que, si hay que bajar el listón, ¡se tira al suelo y se pisotea si hace falta, oiga!

    EC-JPR

    8 Oct 10 at 02:49

  67. Pues precisamente de eso se trata. El estudio que he puesto ahí, a ojos no acostumbrados, podría parecer muy serio. Si, evidentemente, has visto más, algo no te cuadra.

    A donde quería llegar es que con darle una apariencia creible, a la mayor parte de la gente le va a colar. Y luego venden pulseritas, chalequitos y demás historias, que a la mayor parte de la gente le parecerán super-científicos.

    Un saludo.

    Enrique

    8 Oct 10 at 10:04

  68. Lobo, este año los inspectores vienen de traca. Vía jefe de departamento nos comunican que hay que hacerle un seguimiento especial a los repetidores para que no vuelvan a cometer el mismo error. Lo curioso es que no pueden, una vez que repiten pasan de curso por imperativo legal, vulgo alumno pil (que no al pil-pil)

    Aunque también puede ser aquello de «El coronel se eclipsará a las cuatro de la mañana…»

    Por cierto en el norte de África, AL-Andalús por más señas el famoso plan para aligerar las sustituciones anunciado a bombo y platillo consistente, según conserjería (no, no sobra una r), en que el director nombra directamente al interino de las bolsas disponibles en la realidad consiste en que antes el dire llamaba por teléfono y no le hacían ni puto caso y ahora el dire lo pide por intenneeé y tampoco se lo hacen.

    ¿Qué? ¿Han estallado esas venas?.

    Otro día hablo de los dos extranjeros (no hablan NADA de español) que tengo en el aula, el sordomudo (tampoco habla algo que yo pueda entender) y los 27 gamberretes restantes. Y ya han dicho que no sustituyen al especialista (si, ERA solo UNO para todo lo que pueda salir en el centro) aunque la baja sea de larga duración.

    666

    9 Oct 10 at 02:58

  69. Entre el puro, la genuflexión y que esto es el comentario 69… UH, HA

    Doctor Mapache

    11 Oct 10 at 10:33

  70. Hasta hoy no he podido leerlo, pero ha valido la pena. ¡Gran post!

    morri

    11 Oct 10 at 15:14

  71. FELICIDADES.

    Hasta hoy lo pude leer, y está excelente. Si lo leyeran muchos de los alucinados antivacunas (y lo entendieran, pero son muy necios) y otros, muchas discusiones no tendrían origen.

    Me engancho con tu blog. Y difundo esto. (A pesar de la regla en inglés :mrgreen: )

    Darío

    11 Oct 10 at 19:49

  72. Me gusto bastante tu publicación, de manera sencilla puede mostrar como un resultado positivo o negativo no significa que algo realmente funciona, sino que tiene que realizarse una verdadera investigación, esto desacredita las opiniones personales sobre si algo funciona o no. Saludos.

    Carlos René

    12 Oct 10 at 18:28

  73. Pues ya podías haber hecho esto cuando estábamos en primero..
    Gran Entrada, si señó.

    Ricardo

    13 Oct 10 at 09:53

  74. He accedido desde menéame, y que todos se enteren: ¡Bravo!!

    Bull

    14 Oct 10 at 11:48

  75. […] molt interessant que de manera pedagògica explica els principis científics d’una recerca: Estudios científicos: cómo detectar una chapuza. La major part aplicables a les ciències socials, i per extensió, a la sociolingüística. Els hi […]

  76. No lo puedo evitar. Me imagino a un profesor que yo me se cuyas siglas eran M.A. (XD), apoyando su mano en tu hombro y diciendo algo así como: «Oye, ¿y tú no ha pensao dedicarte a esto? jee jee jee jee».

    Me gusta camarógrafo, me gusta.

    iggarate

    14 Oct 10 at 23:19

  77. @Enrique:
    Conste que no me olvido de tus números 🙂 Pero ya ves lo que me está costando tardar a contestar 😳
    De todas formas, ese es el objetivo de incluir la estadística en los programas de las carreras: darle a la gente las herramientas para distinguir el grano de la paja. Sin embargo, como pasa siempre, para muchos las asignaturas no son oportunidades para aprender sino una cosa de la que me van a examinar.

    @666:
    Claro que repiten, pero cuentan con vuestra labor docente, pedagógica y, ante todo, altruista, para marcar un antes y un después en la vida de ese chaval, y transformar un pequeño hijueputa en un fantástico estudiante.

    @Doctor Mapache:
    Me alegra ver que algunas cosas nunca cambian 😀

    @morri:
    Muchas gracias 🙂

    @Darío:
    Los antivacunas, y los de los móviles, y los de la homeopatía, y… ¡hay tantos y tan variopintos! Muchas gracias por correr la voz 🙂 Y, ahora que lo dices, voy a borrar la frase en inglés, que a estas alturas ha perdido su función 😳

    @Carlos René:
    Muchas gracias 🙂 Efectivamente, cuando se opina sobre los resultados de un estudio muchas veces el problema es que no se han entendido bien sus limitaciones o su validez externa.

    @Ricardo:
    En primero no sabía todo lo que sabemos ahora, doc 😳

    @Bull:
    Gracias 🙂

    @Redes sociales y lenguas:
    Moltes gràcies.

    @iggarate:
    JAJAJA Has clavado el acento 😛 Pues la verdad es que no me importaría en absoluto: es más, el año que viene intentaré acercarme por ahí para que me espoleen con la tesis 😀

    EC-JPR

    15 Oct 10 at 13:28

  78. Muy buen artículo, sencillo pero no simple, hilarante pero no patético. Un 10 para el articulo.

    Saludos

    TwOzEr0

    17 Oct 10 at 19:30

  79. […] una visión más amplia de lo que consiste esto de ser informático. La idea me la dio este sitio, y esta entrada en concreto, que espero os interese, sobre la investigación con mayúsculas y con fun…. Me parece una forma interesante de comunicar lo que hago y exponer mi punto de vista sobre esta […]

  80. […] Estudios científicos: cómo detectar una chapuza at Per Ardua ad Astra A tener en mente. […]

    Rimero de enlaces

    22 Oct 10 at 10:49

  81. […] queréis profundizar en todos estos términos, os recomiendo la lectura del divertido artículo Estudios científicos: cómo detectar una chapuza. Es decir, mayores […]

  82. […] Una página que explica cómo detectar una chapuza en un estudio científico. […]

  83. Para complementar el punto sobre significación estadística, este artículo acusa los múltiples errores en que allí se suele caer: Odds Are, It’s Wrong – Science fails to face the shortcomings of statistics.

    Ricardo Stuven

    27 Oct 10 at 05:58

  84. Chapeau!!! 😀

    Alnahua

    2 Nov 10 at 22:29

  85. @TwOzEr0:
    Interesante comentario 🙂 ¡Muchas gracias!

    @trackbacks varios:
    Me alegra de que os haya parecido lo suficientemente bueno como para enlazarlo 🙂

    @Ricardo Stuven:
    Buen aporte: es un artículo interesante para quienes se estén iniciando en el tema. Aunque tengo que decir que, afortunadamente, en la Facultad tuve buenos profesores (gracias a cuya labor mis compañeros y yo vemos fallos en las preguntas de estadística del MIR :confused: ), y el texto no les aportará demasiado a los que ya están iniciados. Pero me consta que hay muchos licenciados que caen en los errores que se señalan en él…

    @Alnahua:
    ¡Gracias!

    EC-JPR

    3 Nov 10 at 00:58

  86. […] y reflexión, cualquiera puede aplicar una serie de pautas para detectar un fraude científico. Especialmente si se trata de un estudio referido a la medicina. Desgraciadamente, todos lo tenemos crudo para poder informarnos de todos los temas. Ni siquiera […]

  87. […] metodología del método científico la relata perfectamente el artículo “Estudios científicos: cómo detectar una chapuza“, Per Ardua Astra, Oct 2010; y además con un ejemplo que viene perfectamente y estoy […]

  88. […] metodología del método científico la relata perfectamente el artículo “Estudios científicos: cómo detectar una chapuza“, Per Ardua Astra, Oct 2010; y además con un ejemplo que viene perfectamente y estoy convencido […]

  89. […] Estudios científicos: cómo detectar una chapuza perarduaadastra.eu/2010/10/estudios-cientificos-como-dete…  por Patton hace 2 segundos […]

  90. Debo reconocer ante los concurrentes mayores de medio siglo, que durante los años 70’s leí todos y cada uno de los libros de Lobsang Rampa, empezando por El Tercer Ojo, y me los tragué de punta a cabo…; hasta que me encontré con el Libro de los Muertos y me dí cuenta que el bueno de Lobsang había copiado sin pudor partes de éste. Dejé de creer y me volví la bestia escéptica en que he devenido. Y salí ganando, de todas maneras. ¿A qué viene esto? Simple. Con la información que he encontrado en este artículo, me puedo defender y argumentar y contraargumentar con conocimientos fiables y entendibles, lo que no es poco. Se agradece al autor.
    Saludos desde el Sur del Mundo

    Kuri Lonko

    9 Feb 11 at 19:32

  91. Kuri Lonko a mi me pasó lo mismo pero con escarmiento por parte de mis padres. Disfruté del libro y estuve un buen rato cotorreándolo con mis padres y pensando en leerme los siguientes y ya, cuando estaba emocionadísima, mi padre me soltó un «el autor es en realidad un inglés que nunca ha salido de su pueblecito». Se me rompieron todos los esquemas…

    Bea

    9 Feb 11 at 20:44

  92. @ Bea lo mío fué más paulatino. Iba ya como en el 10º tomo, inspirado, tratando de viajar al astral y todo ello. El bueno de Lobsang empezó a insinuar que sus publicaciones necesitaban algún medio económico para ser sustentadas, y ahí comienza a ofrecer la «Piedra de Toque Rampa», que era una mezcla de Power Balance, Bálsamo de Fierabrás y la pulsera de los siete poderes, por una pequeña suma ( en Libras Esterlinas), eso, más lo contado antes lo pusieron en su sitio: un embaucador.
    A mi también se me rompieron los esquemas.
    Saludos desde el Sur.

    Kuri Lonko

    14 Feb 11 at 23:43

  93. Muy bueno!

    Creo que le falta una cosa: determinar los criterios de éxito previamente. Porque si yo mido la cantidad de hojas, la cantidad de peras, el tamaño de las peras, el color de las peras, el olor, si tienen más o menos plagas, etc… es probable que al menos uno de todos los criterios salga bien sólo por azar.
    Hacer eso se llama «fishing expedition» o expedición de pesca. Si uno busca relaciones ente todas las variables que pueda eventualmente va a encontrar aluna estadísticamente significativa. Es la diferencia entre un estudio exploratorio y uno confirmatorio. En el primero uno va en busca de cualquier relación interesante; el segundo está guiado por una hipótesis u observación previa que trata de corroborar o refutar.

    Daneel

    19 Jul 11 at 17:58

  94. […] este punto os recomiendo leer “Estudios científicos: cómo detectar una chapuza“, Per Ardua ad Astra, Oct 2010. Un artículo muy ilustrativo en el que Julián Palacios, autor […]

  95. Hace poco he estado leyendo que existe un problema con respeto al 5% aceptado por convenio. Y es que cada 20 «tiradas» obtienes un 5% de resultado asegurado, con lo cual una investigación con un tamaño muestral superior a 20 individuos (o lo que sea) podría dar un 5% de incidencia que realmente no sería siginficativo. Si quieres verlo mejor, mira Investigación y Ciencia de Noviembre.

    Un saludo.

    Enrique

    25 Nov 11 at 13:34

  96. Fantástico artículo, me ha gustado mucho: bien escrito (qué gusto, encontrar por la Red alguien que conoce y usa correctamente el lenguaje,) explicaciones claras y bien argumentadas… Un lujo. Gracias.
    (Por cierto, seguramente porque yo soy de secano, en mi pueblo se decía que eran una golondrina quien no hacia verano…)

    Sherca

    22 Ene 12 at 09:39

  97. hey, gran artículo, gracias x8000

    jesmendoza

    27 Feb 12 at 07:26

  98. Hola EC-JPR:

    Maravilloso artículo. Uno de los más claros sobre el tema que he leído hasta ahora. Sin embargo, me parece que hay personas sin ningún conocimiento científico o con muy poco tiempo para investigar el método empleado que requerirán una forma más simple para detectar chapuzas, es decir, me imagino que podría existir un paso previo a lo que planteas en el artículo, el cual debería contener algunas preguntas básicas, tales como:

    1) ¿Todos los estudios científicos son necesariamente publicados como papers?

    2) ¿Qué son los papers?

    3) Los papers, ¿dónde deben estar publicados para considerarlos serios?

    4) Cuando los estudios se han hecho en ratones por ejemplo, ¿los resultados se pueden llevar al nivel de los seres humanos?

    Me parece de una gran utilidad tener claro lo anterior. ¿Me podrías ayudar? Si hay más preguntas importantes -que de seguro las hay- ¿me las podrías señalar y responder también, por favor?

    Muchas gracias.

    Saludos.

    Bayo
    Miembro y fundador de la Asociación Escéptica de Chile (AECH)

    Bayo

    14 Ago 12 at 15:20

  99. […] [1]: Estudios científicos: cómo detectar una chapuza. Per ardua ad astra […]

  100. eres muy bueno escribiendo!!, haces que parezca divertido y todo…

    😉

    unatalfis

    2 Oct 12 at 12:04

  101. Excelente!

    Nel

    6 Oct 12 at 18:58

  102. Brillante……..un puto 10!! 😉

    DuiN

    17 Nov 12 at 07:28

  103. Tengo que decirte que gracias, gracias y chapo por tener narices de sacar tan buen artìculo, eres especial y de eso no cabe duda, no veas la pila de artìculo que he leido intentando orientarme, y gracias a tì he podido sacar adelante màs de 3 trabajos. gracias.

    ANA MARIA.

    17 Dic 12 at 11:10

  104. […] – Tamaño muestral (la muestra de un único día no es válida), el grupo control sobre los que compara los datos, la representación… es decir lo que viene siendo el método científico o la mínima comprobación de fuentes. […]

  105. […] ¿Realmente no se han estudiado estos “fármacos“? El problema no es que no se hayan publicado estudios sobre los supuestos efecto beneficiosos de la Homeopatía. Haciendo una rapidísima búsqueda en PubMed encontramos 4.815 resultados. Lo difícil es separar “el grano de la paja“, saber qué estudios están bien hechos y cuales no. […]

  106. […] el rendimiento físico. Como este sector de altamente competitivo hay empresas que utilizan estudios poco rigorosos y rodean sus productos de un marketing agresivo y extremadamente exagerado, creanado un efecto […]

  107. Solo añadir que tan malo es una muestra pequeña como pasarse de muestra, por eso se hace el cálculo del tamaño muestral.

    Si añades mucha gente puedes encontrar diferencias donde realmente no las hay. Es justamente lo que hacen algunos estudios, cuando están al borde de la significancia añaden más gente para que salga estadísticamente significativo.

    Juan

    15 Abr 14 at 19:09

  108. Gracias por la simplicidad, muy útil y compartible

    OAL

    31 Jul 14 at 02:32

  109. Excelente, pero corrige la palabra Himbestigación.

    Domènika

    11 Ene 15 at 13:16

  110. […] un número importante de personas (tamaño muestral) y comparando el tratamiento contra el placebo; además de otros, como grupo control, representatividad de la muestra, aleatorización, experimentos doble o triple […]

  111. El estudio con 4 000 pacientes es multicentro, y financiado por Merck (no es algo malo por si sólo pero me da risa que en otros posts tuyos te quejes de Boiron y no de esto).
    Es estúpido comparar este tipo de estudios que involucran mucho dinero invertido con estudios que no son multi centro. Al no mencionar esto haces creer que para que un estudio clínico sea riguroso necesitas por fuerza tener miles de pacientes.

    El otro estudio con 15 000 pacientes fue aleatorizado, con control placebo pero sin doble ciego. Según tú es «himbeztigazion».

    Anónimo

    26 Jun 16 at 02:44

Adelante, disfruta de tu minuto de gloria.

Y recuerda: The first rule about Fight Club is you don't talk about Fight Club.