Introducción a la citometría de flujo en R
Ajustar un modelo a una colección de observaciones es uno de los objetivos por excelencia de la estadística y el aprendizaje automático. Un importante avance reciente en el aprendizaje automático teórico es el desarrollo de algoritmos de aprendizaje eficientes para varios modelos de alta dimensión, incluidos los modelos de mezcla gaussiana, el análisis de componentes independientes y los modelos temáticos. El talón de Aquiles de estos algoritmos es la suposición de que los datos se generan precisamente a partir de un modelo del tipo dado.
Esta suposición es crucial para el rendimiento de estos algoritmos: incluso una fracción muy pequeña de valores atípicos puede comprometer completamente el comportamiento del algoritmo. Por ejemplo, k puntos colocados de forma adversa pueden alterar por completo el análisis de componentes principales k-dimensional, una primitiva comúnmente utilizada por muchos algoritmos. Sin embargo, esta suposición sólo es válida aproximadamente, ya que los conjuntos de datos reales suelen estar expuestos a alguna fuente de contaminación. Además, la corrupción de los datos suele ser sistemática, y los modelos aleatorios no captan con precisión la naturaleza de la corrupción. Por lo tanto, es deseable que cualquier estimador que se vaya a utilizar en la práctica sea estable en presencia de datos arbitraria y adversamente corruptos.
Rosetta Boot Camp, 2013, conferencia 9: Computación científica
Christine Barter es investigadora de la NSPCC en la Universidad de Luton. Anteriormente ha trabajado en diversos proyectos relacionados con las experiencias de niños y jóvenes. En la actualidad participa en un estudio sobre la violencia entre jóvenes en hogares infantiles, financiado por el ESRC.
Emma Renold acaba de terminar su doctorado sobre una exploración etnográfica de la construcción de las identidades sexuales y de género de los niños. Trabaja para la NSPCC como asistente de investigación en el proyecto «Violencia en los hogares infantiles» y está escribiendo una revisión bibliográfica sobre la explotación sexual de los niños.
Hay pocos relatos detallados sobre el uso de viñetas, en particular dentro de la investigación cualitativa y como método complementario con otras técnicas de recogida de datos. No obstante, la bibliografía es clara sobre lo que constituyen las viñetas. Finch (1987:105) las describe como «historias cortas sobre personajes hipotéticos en circunstancias específicas, a cuya situación se invita al entrevistado a responder». Aunque ella está describiendo su uso dentro de un paradigma cuantitativo, otros ofrecen definiciones similares de su uso dentro de la investigación cualitativa:
Viñetas de Ciencias Políticas – Codificación de nivel de postgrado
La teoría de la complejidad computacional es la rama de las ciencias de la computación que estudia la naturaleza y los límites de la computación eficiente; un objetivo general en esta área es la clasificación de los problemas computacionales según su dificultad inherente. Una de las clasificaciones más estudiadas es la Jerarquía Polinómica, introducida por Albert Meyer y Larry Stockmeyer en 1972. Esta jerarquía clasifica los problemas según una noción natural de complejidad lógica, y se define con un número infinito de niveles: los problemas del nivel cero son los «más fáciles», y para cada número entero k, los problemas del nivel (k+1)-ésimo tienen una complejidad lógica «una muesca más alta» que los del nivel k. En esta viñeta describimos algunos trabajos recientes realizados en el Instituto Simons, en colaboración con Rocco Servedio, de la Universidad de Columbia, que arrojan nueva luz sobre la estructura de esta jerarquía.
La jerarquía polinómica comienza en el nivel cero con la clase P de problemas resolubles en tiempo polinómico: los problemas más fáciles. En informática teórica, P representa una noción elegante y robusta de eficiencia computacional: los algoritmos de tiempo polinómico se consideran eficientes y los problemas de P se consideran manejables. Algunos ejemplos de problemas fundamentales en P son la programación lineal, el emparejamiento y la primalidad. En el primer nivel por encima de P en la jerarquía se encuentra NP, la clase de problemas resolubles en tiempo polinómico no determinista, lo que significa que una respuesta afirmativa puede verificarse de forma eficiente. Entre los ejemplos más conocidos de problemas NP se incluyen los problemas de la Satisfactibilidad Booleana y del Vendedor Viajero, entre otros innumerables que surgen en contextos sorprendentemente diversos.
Sobre pensamiento computacional, pensamiento inferencial y datos
Un pequeño esbozo ilustrativo. Para el SEBoK, una viñeta es un breve ejemplo de implementación escrito para formar parte del SEBoK, mientras que una introducción a un estudio de caso cita un estudio de caso existente y más extenso ya disponible en la literatura externa. (Adaptado del Webster’s Online Dictionary)
La definición básica procede del «Webster’s Online Dictionary», http://www.websters-online-dictionary.org/definitions/vignette. La explicación adicional se elaboró para SEBoK.. Esta definición describe el enfoque de las viñetas en Systems Engineering Implementation Examples.
Relacionados

Soy Romuald Fons, en mi viaje a Peru descubri FluyezCambios y desde entonces soy redactor jefe de la seccion de Posicionamiento Web. Gracias por leer mis excelentes posts sobre FluyezCambios. Saludos y hasta otra.