¿Cómo podría uno desarrollar una regla de detención en un análisis de poder de dos proporciones independientes?


18

Soy un desarrollador de software que trabaja en sistemas de prueba A / B. No tengo antecedentes sólidos de estadísticas, pero he estado adquiriendo conocimientos en los últimos meses.

Un escenario de prueba típico implica comparar dos URL en un sitio web. Un visitante visita LANDING_URLy luego se reenvía al azar a cualquiera URL_CONTROLo URL_EXPERIMENTAL. Un visitante constituye una muestra, y se logra una condición de victoria cuando el visitante realiza alguna acción deseable en ese sitio. Esto constituye una conversión y la tasa de tasas de conversión es la tasa de conversión (generalmente expresada como un porcentaje). Una tasa de conversión típica para una URL dada es algo en el ámbito de 0.01% a 0.08%. Realizamos pruebas para determinar cómo se comparan las nuevas URL con las antiguas. Si URL_EXPERIMENTALse muestra un rendimiento superior URL_CONTROL, lo reemplazamos URL_CONTROLcon URL_EXPERIMENTAL.

Hemos desarrollado un sistema utilizando técnicas simples de prueba de hipótesis. Usé las respuestas a otra pregunta CrossValidated aquí para desarrollar este sistema.

Una prueba se configura de la siguiente manera:

  • La tasa de conversión estimada CRE_CONTROLdeURL_CONTROL se calcula utilizando datos históricos.
  • Se establece la tasa CRE_EXPERIMENTALde conversión objetivo deseada de URL_EXPERIMENTAL.
  • Normalmente se usa un nivel de significación de 0,95.
  • Normalmente se usa una potencia de 0.8.

Juntos, todos estos valores se utilizan para calcular el tamaño de muestra deseado. Estoy usando la función R power.prop.testpara obtener este tamaño de muestra.

Se ejecutará una prueba hasta que se recojan todas las muestras. En este punto, se calculan los intervalos de confianza para CR_CONTROLy CR_EXPERIMENTAL. Si no se superponen, se puede declarar un ganador con un nivel de significación de 0,95 y una potencia de 0,8.

Sin embargo, los usuarios de nuestras pruebas tienen dos preocupaciones principales:

1. Si, en algún momento durante la prueba, se recolectan suficientes muestras para mostrar un ganador claro, ¿no se puede detener la prueba?

2. Si no se declara ningún ganador al final de la prueba, ¿podemos ejecutar la prueba más tiempo para ver si podemos recolectar suficientes muestras para encontrar un ganador?

Cabe señalar que existen muchas herramientas comerciales que permiten a sus usuarios hacer exactamente lo que nuestros propios usuarios desean. He leído que hay muchas falacias con lo anterior, pero también he encontrado la idea de una regla de detención y me gustaría explorar la posibilidad de usar dicha regla en nuestros propios sistemas.

Aquí hay dos enfoques que nos gustaría considerar:

1. Utilizando power.prop.test, compare las tasas de conversión medidas actuales con el número actual de muestras y vea si se han recolectado suficientes muestras para declarar un ganador.

Ejemplo: se ha configurado una prueba para ver si existe el siguiente comportamiento en nuestro sistema:

  • CRE_CONTROL: 0.1
  • CRE_EXPERIMENTAL: 0.1 * 1.3
  • Con estos parámetros, el tamaño de la muestra Nes 1774.

Sin embargo, a medida que la prueba avanza y alcanza 325 muestras, CRM_CONTROL(la tasa de conversión medida para el control) es 0.08 y CRM_EXPERIMENTAL0.15. power.prop.testse ejecuta con estas tasas de conversión y Nse encuentra en 325. ¡Exactamente el número de muestras necesarias para declarar CRM_EXPERIMENTALque es el ganador! En este punto, esperamos que la prueba pueda finalizar. Del mismo modo, si la prueba alcanza las 1774 muestras pero no se encuentra un ganador, pero luego alcanza las 2122 muestras, lo que es suficiente para mostrar que CRM_CONTROL0.1 y CRM_EXPERIMENTAL0.128 es un resultado en el que se puede declarar un ganador.

En una pregunta relacionada, los usuarios informaron que tal prueba es menos creíble debido a que alienta a las paradas tempranas a tener menos muestras y también es vulnerable al sesgo de estimación y a un mayor número de errores de Tipo I y Tipo II. ¿Hay alguna manera de hacer que esta regla de detención funcione? Este es nuestro enfoque preferido ya que significa menos tiempo de programación para nosotros. ¿Quizás esta regla de detención podría funcionar ofreciendo algún tipo de puntaje numérico o puntajes que midan la credibilidad de la prueba en caso de que se detenga antes?

2. Utilizando análisis secuencial o SPRT .

Estos métodos de prueba están diseñados exactamente para la situación en la que nos encontramos: ¿cómo pueden nuestros usuarios comenzar una prueba y finalizarla de tal manera que no pierdan el tiempo excesivo en las pruebas? Ejecutar una prueba demasiado tiempo o tener que comenzar una prueba nuevamente con diferentes parámetros.

De los dos métodos anteriores, estoy a favor de SPRT porque las matemáticas son un poco más fáciles de entender y porque parece que puede ser más fácil de programar. Sin embargo, no entiendo cómo usar la función de probabilidad en este contexto. Si alguien pudiera construir un ejemplo de cómo calcular la razón de probabilidad, la suma acumulativa de la razón de probabilidad, y continuar con un ejemplo que ilustra una situación en la que uno continuaría monitoreando, cuando uno aceptaría la hipótesis nula y la hipótesis alternativa, eso nos ayudaría a determinar si SPRT es el camino correcto.


2
Recomiendo que no recurras al vudú. Cuando utiliza una herramienta y no comprende exactamente qué está haciendo o cómo funciona, entonces no está calificado para interpretar los resultados de la herramienta. Cuando un análisis impulsa una decisión comercial, y está invirtiendo tiempo y dinero en el resultado, muestra la propiedad si se toma el tiempo de comprender la fuente de datos. Es el tipo de trabajo duro que le brinda más oportunidades en lugar de estar "en el rebaño".
EngrStudent - Restablece a Monica el

Respuestas:


7

Este es un problema interesante y las técnicas asociadas tienen muchas aplicaciones. A menudo se les llama estrategias de "monitoreo interino" o "diseño experimental secuencial" (el artículo de Wikipedia, al que se vinculó, lamentablemente es un poco escaso), pero hay varias maneras de hacerlo. Creo que @ user27564 se equivoca al decir que estos análisis deben ser necesariamente bayesianos; también existen enfoques frecuentas para el monitoreo interino.

UNssisUNsiPAG(UN)=PAG(si)=0,558X tal que 1-F(X;100;0,5)<αF

Una lógica similar le permite encontrar los "puntos de inevitabilidad" para otras pruebas donde:

  1. El tamaño total de la muestra * es fijo y
  2. Cada observación aporta una cantidad limitada a la muestra.

Probablemente sea fácil de implementar: calcule los criterios de detención fuera de línea y luego conéctelo al código de su sitio, pero a menudo puede hacerlo aún mejor si está dispuesto a terminar el experimento no solo cuando el resultado es inevitable , pero cuando también es muy poco probable que cambie.

UNsiUN

También hay otros enfoques. Los métodos secuenciales grupales están diseñados para situaciones en las que es posible que no pueda obtener un número determinado de sujetos y los sujetos goteen a tasas variables. Dependiendo del tráfico de su sitio, es posible que desee o no investigar esto.

Hay una buena cantidad de paquetes R flotando alrededor de CRAN, si eso es lo que está utilizando para su análisis. Un buen lugar para comenzar podría ser la Vista de tareas de ensayos clínicos , ya que gran parte de este trabajo salió de ese campo.


[*] Solo algunos consejos amigables: ten cuidado al mirar los valores de significación calculados a partir de un gran número de puntos de datos. A medida que recoger más y más datos, que va finalmente encontrar un resultado significativo, pero el efecto puede ser trivialmente pequeña. Por ejemplo, si le preguntas a todo el planeta si prefieren A o B, es muy poco probable que veas una división exacta de 50:50, pero probablemente no valga la pena reorganizar tu producto si la división es 50.001: 49.999. ¡Siga revisando el tamaño del efecto (es decir, la diferencia en las tasas de conversión) también!


1
Para abordar explícitamente las preocupaciones de sus usuarios: Sí, definitivamente puede finalizar el análisis temprano. Esto sucede todo el tiempo para los ensayos clínicos: el medicamento es un éxito tan grande que tienen datos suficientes para su eficacia y quieren dárselo a las personas atrapadas en el grupo de control (o, más probablemente, el medicamento es un gran busto / empeorar las cosas). Sin embargo, extender el experimento es más polémico: existen métodos para corregir múltiples "miradas", pero sería mejor fijar un N máximo por adelantado, ¡siempre puede detenerse temprano!
Matt Krause

2
Gracias por esto, estoy totalmente de acuerdo con la suspensión si el experimento es inevitable, ¡eso realmente tiene sentido! Con ese 'parar si es realmente improbable' dudaría que un verdadero frecuentador estuviera de acuerdo. Es nada menos que decir: ¿95%? ¡Diría que el 93% también es bueno! Quiero decir que también sería bueno estar satisfecho con un 90% de confianza, ¡pero como frecuente antes de consultar los datos!
SebastianNeubauer

1
No soy un archifrecuente, ni juego uno en la televisión, pero creo que todavía puedes tener una interpretación frecuente y razonable de una regla de detención temprana: si realicé este experimento 100 veces, ¿con qué frecuencia obtendría el a respuesta diferente si me detuviera ahora frente a si corrí hasta la finalización? La revisión que vinculé señala que este es uno de esos buenos casos en los que es posible satisfacer a los bayesianos y frequentistas al mismo tiempo ...
Matt Krause

α

1
@ RussellS.Pierce: Creo que depende. Obviamente, la reducción no lo hará, pero algunos otros métodos sí. La prueba de O'Brein y Flemming, por ejemplo, puede usar más datos, pero también puede rechazar antes, y la prueba de Pocock aún más. Obviamente depende de los detalles: el libro vinculado anteriormente tiene un ejemplo con algunos valores razonables (tamaño del efecto: 0.25, alfa = 0.05, potencia = 0.9, 5 miradas). La versión N fija necesita 170 sujetos para rechazar; La versión OBF necesita un máximo de 180, y el Pocock necesita como máximo 205, pero el número esperado de sujetos es 130 y 117, respectivamente.
Matt Krause

1

Puede detenerse temprano, pero si lo hace, sus valores p no se interpretan fácilmente. Si no le importa la interpretación de su valor p, entonces la forma en que la respuesta a sus dos primeras preguntas es 'no' no importa (demasiado). Su cliente parece pragmático, por lo que la verdadera interpretación de un valor p probablemente no sea un buen punto que le interese.

No puedo hablar con el segundo enfoque que propones.

Sin embargo, el primer enfoque no está en tierra firme. Las aproximaciones normales de las distribuciones binomiales no son válidas para proporciones tan bajas (que es el método que usa power.prop.test, también el método utilizado por Cohen en su libro clásico sobre el poder). Además, que yo sepa, no existe una solución de análisis de potencia de forma cerrada para las pruebas de proporción de dos muestras (cf. ¿Cómo se puede realizar un análisis de potencia binomial de dos grupos sin utilizar aproximaciones normales? ). Sin embargo, existen mejores métodos para aproximar los intervalos de confianza de las proporciones (véase el paquete binom) Puede usar intervalos de confianza no superpuestos como una solución parcial ... pero esto no es lo mismo que estimar un valor p y, por lo tanto, no proporciona una ruta hacia el poder directamente. Espero que alguien tenga una buena solución de forma cerrada que compartan con el resto de nosotros. Si me tropiezo con uno, actualizaré la pregunta mencionada anteriormente. Buena suerte.

Editar: Mientras lo estoy pensando, déjenme ser completamente pragmático aquí por un momento. Su cliente desea que este experimento finalice cuando esté seguro de que el sitio experimental funciona mejor que el sitio de control. Después de obtener una muestra decente, si no está listo para tomar una decisión, simplemente comience a ajustar la proporción de su asignación aleatoria a cualquier lado que esté 'ganando'. Si fue solo un bache, la regresión hacia la media se deslizará, se volverá menos seguro y disminuirá la relación. Cuando esté razonablemente seguro, cancele y declare un ganador. El enfoque óptimo probablemente implicaría una actualización bayesiana, pero no sé lo suficiente sobre ese tema fuera de mi cabeza para dirigirlo. Sin embargo, puedo asegurarle que si bien puede parecer contra intuitivo a veces, las matemáticas en sí no son tan difíciles.


0

Las preguntas que tiene son preguntas típicas que surgen en las pruebas estadísticas. Hay dos 'sabores' de estadísticas, el frecuentista y el bayesiano. La respuesta frecuente a sus dos preguntas es fácil:

  • NO
  • No, no puedes parar temprano
  • No, no puedes medir por más tiempo

Una vez que definió su configuración, no está permitido siquiera mirar los datos (análisis ciego). Desde el punto de vista frecuentista, no hay forma de evitarlo, ¡no hay trampa ni trucos! (EDITAR: Por supuesto, hay intentos de hacerlo, y también funcionarán si se usan correctamente, pero se sabe que la mayoría de ellos introducen sesgos).

Pero existe el punto de vista bayesiano, que es bastante diferente. El enfoque bayesiano necesita, en contraste con los frecuentistas, una entrada adicional, la distribución de probabilidad a priori. Podemos llamarlo también conocimiento previo o prejuicio. Teniendo esto, podemos usar los datos / medidas para actualizar nuestro conocimiento a la probabilidad a posteriori. El punto es que podemos usar los datos y aún más, podemos usar los datos en cada punto intermedio de la medición. En cada actualización, el último posterior es nuestro nuevo prior y podemos actualizarlo con una nueva medición a nuestro conocimiento actualizado. No hay problema de parada temprana en absoluto!

Encontré una charla discutiendo problemas muy similares a los que tienes y describí anteriormente: http://biostat.mc.vanderbilt.edu/wiki/pub/Main/JoAnnAlvarez/BayesianAdaptivePres.pdf

Pero además de esto, ¿estás realmente seguro de que necesitas esto? Parece que tiene algún sistema ejecutándose para decidir dónde vincular una solicitud. Para esto, no necesita probar que sus decisiones son correctas en un sentido estadístico con una prueba de hipótesis. ¿Alguna vez ha comprado una coca cola, porque podría excluir que Pepsi esté 'en este momento' con una probabilidad del 95%? Es suficiente tomar el que sea mejor, sin excluir una hipótesis. Eso sería un algoritmo trivial: calcule la incertidumbre de la tasa A, calcule la falta de certidumbre de B. Tome la diferencia de ambas tasas y divídala por la incertidumbre de la diferencia. El resultado es algo así como el significado de la diferencia en sigma. Luego, tome todos los enlaces donde haya más de dos o tres diferencias sigma. Retirarse,


1
Creo que sus primeros cuatro párrafos son un poco confusos: hay enfoques frecuentistas para el monitoreo provisional. Es cierto que la actualización posterior (bayesiana) se presta muy bien a esto, pero podría enmarcar este problema de muchas maneras diferentes. Gracias por el puntero a las diapositivas!
Matt Krause

+1 de todos modos: el enfoque bayesiano es probablemente más claro que cualquier solución frecuente.
russellpierce

2
Eh, está este ... meme ... que los métodos bayesianos le permiten a uno mirar sin parar los datos sin ninguna complicación. Sin embargo, la tasa de error general de Tipo I no se controla realmente (¿por qué lo sería?) Y puede ser arbitrariamente grande si después de muchas "miradas". Puede mejorar esto con un previo apropiado, o puede argumentar que controlar el error Tipo I es poco convincente, pero no es como si todas las técnicas bayesianas fueran una panacea.
Matt Krause

0

tal vez algunos métodos podrían usarse allí como

  • Pocock
  • O'Brien y Flemming
  • Peto

Esto ajustará el límite de P en función de los resultados y ayudará a dejar de recopilar datos y a economizar recursos y tiempo.

quizás otros trabajos podrían agregarse aquí.


¿podría proporcionar enlaces o más información para sus viñetas?
Antoine

no tengo esos artículos exactos porque utilicé un artículo de revisión que los cita, quiero decir que los enfoques son diferentes, pero puedo recomendarle un artículo que maneje la pregunta en el campo médico: Modificación adaptativa del tamaño de la muestra en ensayos clínicos: comience con poco y luego ¿Pregunta por más? Christopher Jennisona * † y BruceW. Turnbullb
HappyMan
Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.