martes, 22 de mayo de 2018

La disfuncional cultura corporativa de la fracasada Theranos


Elizabeth Holmes abandonó Stanford y fundó Theranos en 2003. La compañía implosionó en 2015 después de que se revelara que había tergiversado su tecnología de análisis de sangre. La SEC acusó a Holmes de fraude, la despojó de su participación mayoritaria en la empresa, le multó con $ 500,000 y le prohibió ser funcionaria o directora de una empresa pública durante 10 años.


Una nueva mirada dentro de la cultura corporativa disfuncional de Theranos

Cuando un químico expresó su preocupación por las altas tasas de error de las máquinas de análisis de sangre, fue ignorada. Entonces ella renunció.

AUTOR: JOHN CARREYROU | Wired


ALAN BEAM estaba sentada en su oficina revisando informes de laboratorio cuando la directora general y fundadora de Theranos, Elizabeth Holmes, asomó la cabeza y le pidió que la siguiera. Ella quería mostrarle algo. Salieron del laboratorio hacia un área de oficina abierta donde otros empleados se habían reunido. A su señal, un técnico pinchó el dedo de un voluntario y luego aplicó un utensilio de plástico transparente con la forma de un cohete en miniatura a la sangre que manaba de él. Este fue el dispositivo de recolección de muestras de Theranos. Su punta recogió la sangre y la transfirió a dos pequeños motores en la base del cohete. Los motores no eran realmente motores: eran nanotainer. Para completar la transferencia, empujó los nanotainer en el vientre del cohete de plástico como un émbolo. El movimiento creó un vacío que absorbió la sangre en ellos.

O al menos esa era la idea. Pero en este caso, las cosas no fueron como las planearon. Cuando el técnico empujó los pequeños tubos gemelos en el dispositivo, se escuchó un fuerte estallido y sangre salpicada en todas partes. Uno de los nanotainizadores acaba de explotar.

Holmes parecía imperturbable. "OK, intentémoslo de nuevo", dijo con calma.

Beam1 no estaba seguro de qué hacer con la escena. Solo había estado trabajando en Theranos, la compañía de Silicon Valley que prometió ofrecer análisis de sangre rápidos y baratos a partir de una sola gota de sangre, durante unas semanas y todavía estaba tratando de orientarse.


Extraído de Bad Blood: Secrets and Lies in a Silicon Valley Startup, por John CarreyrouKNOPF
Sabía que el nanotainer era parte del sistema patentado de análisis de sangre de la compañía, pero nunca había visto uno en acción antes. Esperaba que esto fuera solo un pequeño percance que no auguraba problemas mayores.

La tortuosa ruta del patólogo larguirucho a Silicon Valley había comenzado en Sudáfrica, donde creció. Después de estudiar inglés en la Universidad de Witwatersrand en Johannesburgo ("Ingenios" para los sudafricanos), se mudó a los Estados Unidos para tomar clases premeditadas en la Universidad de Columbia en la ciudad de Nueva York. La elección fue guiada por sus padres judíos conservadores, quienes consideraban solo unas pocas profesiones aceptables para su hijo: la ley, los negocios y la medicina.

Beam se había quedado en Nueva York para la escuela de medicina, inscribiéndose en la Escuela de Medicina Mount Sinai en el Upper East Side de Manhattan, pero rápidamente se dio cuenta de que algunos aspectos de ser médico no se ajustaban a su temperamento. Despreciado por las horas locas y las visiones y olores de la sala del hospital, se inclinó hacia la especialidad más tranquila de la ciencia de laboratorio, que dio lugar a estudios posdoctorales en virología y una residencia en patología clínica en el Hospital Brigham and Women's de Boston.

En el verano de 2012, Beam dirigía el laboratorio de un hospital para niños en Pittsburgh cuando notó una publicación en LinkedIn que encajaba perfectamente con su incipiente fascinación con Silicon Valley: director de laboratorio de una firma de biotecnología de Palo Alto. Acababa de leer la biografía de Walter Jobs de Steve Jobs. El libro, que había encontrado enormemente inspirador, había consolidado su deseo de mudarse al Área de la Bahía de San Francisco.

Después de que solicitó el puesto, se le pidió a Beam que volara para una entrevista programada para las 6 p. M. Del viernes. El momento pareció extraño, pero estuvo feliz de complacerlo. Se reunió primero con COO Sunny Balwani y luego con Holmes. Había algo en Balwani que le pareció vagamente espeluznante, pero esa impresión fue más que compensada por Holmes, quien se mostró muy serio en su determinación de transformar la atención médica. Como muchas personas que la conocieron por primera vez, Beam se sorprendió por su voz profunda. Era diferente a todo lo que había escuchado antes.

En ese momento, Theranos estaba en la cúspide de convertirse en un favorito de la tecnología. Fundada por el carismático Stanford Dropout en 2003, sus promesas de revolucionar el análisis de sangre y, por extensión, la vasta industria del diagnóstico médico, serían absorbidas por la mayoría de la prensa tecnológica, lo que prodigaría a Holmes una excelente cobertura. (WIRED no estaba exento). Solo más tarde, en octubre de 2015, saldría la verdad: Theranos era un fraude basado en el secreto, la fabricación deliberada y la exageración. Después de revelar ese fraude, la compañía comenzaría una implosión que continúa hasta el día de hoy.

Beam no tenía forma de saber nada de esto cuando aceptó la oferta de trabajo de Theranos en agosto de 2012. El laboratorio que heredó se dividió en dos partes: una habitación en el segundo piso del edificio que estaba llena de equipos comerciales de diagnóstico y una segunda habitación debajo donde se estaba llevando a cabo la investigación. La habitación de arriba era la parte del laboratorio certificada por el gobierno federal, la única responsable de Beam. Balwani y Holmes veían sus máquinas convencionales como dinosaurios que pronto se extinguirían por la tecnología revolucionaria de Theranos, por lo que lo llamaron "Parque Jurásico". Llamaron a la sala de la planta baja "Normandía" en referencia a los desembarcos del día D durante la Segunda Guerra Mundial. Los dispositivos patentados de Theranos contenían la industria del laboratorio, como las tropas aliadas que desafiaron las ráfagas de ametralladoras en las playas de Normandía para liberar a Europa de la ocupación nazi.

En su entusiasmo y emoción, Beam inicialmente compró la valentía. Pero una conversación que tuvo con Paul Patel poco después de la fallida demostración nanotainer planteó preguntas en su mente acerca de qué tan avanzado estaba realmente la tecnología de Theranos. Patel fue el bioquímico que lideró el desarrollo de análisis de sangre para el nuevo dispositivo de Theranos, que Beam solo conocía por su nombre en clave: "4S". Patel dejó escapar que su equipo aún estaba desarrollando sus ensayos en placas de laboratorio en el banco. Eso sorprendió a Beam, quien había asumido que los ensayos ya estaban integrados en el 4S. Cuando preguntó por qué ese no era el caso, Patel respondió que la nueva caja de Theranos no funcionaba.

PARA EL VERANO de 2013, cuando Chiat \ Day se apresuró a preparar el sitio web de Theranos para el lanzamiento comercial de la compañía, el 4S, también conocido como miniLab, se había estado desarrollando durante más de dos años y medio. Pero el dispositivo sigue siendo un trabajo en progreso. La lista de sus problemas fue larga.

El mayor problema de todos fue la cultura corporativa disfuncional en la que se estaba desarrollando. Holmes y Balwani consideraban a cualquier persona que planteara una preocupación o una objeción como un cínico y un negacionista. Los empleados que persistían en hacerlo generalmente eran marginados o despedidos, mientras que los aduladores eran promovidos.

Los empleados eran los secuaces de Balwani. Esperaba que estuvieran a su disposición a todas horas del día o de la noche y los fines de semana. Revisó los registros de seguridad todas las mañanas para ver cuándo entraban y salían. Todas las noches, alrededor de las 7:30, hizo un sobrevuelo del departamento de ingeniería para asegurarse de que la gente todavía estuviera trabajando en sus escritorios.

Con el tiempo, algunos empleados le tenían menos miedo e idearon maneras de manejarlo, ya que cayeron en la cuenta de que estaban lidiando con un hombre-hijo errático de intelecto limitado y un lapso de atención aún más limitado. Arnav Khannah1, un joven ingeniero mecánico que trabajó en el miniLab, descubrió una forma segura de sacar a Balwani de su espalda: contesta sus correos electrónicos con una respuesta de más de 500 palabras. Eso generalmente le traía varias semanas de paz porque Balwani simplemente no tenía la paciencia para leer largos correos electrónicos. Otra estrategia fue convocar una reunión quincenal de su equipo e invitar a Balwani a asistir. Podría llegar a los primeros, pero eventualmente perdería interés u olvidaría aparecer.

Mientras que Holmes era rápido para entender los conceptos de ingeniería, Balwani a menudo estaba fuera de su profundidad durante las discusiones de ingeniería. Para ocultarlo, tenía la costumbre de repetir los términos técnicos que oía que otros usaban. Durante una reunión con el equipo de Khannah, se aferró al término "efector final", que significa las garras en el extremo de un brazo robótico. Excepto que Balwani no escuchó "end efector", escuchó "endofactor". Durante el resto de la reunión, siguió refiriéndose a los endofactores ficticios. En su siguiente reunión con Balwani dos semanas más tarde, el equipo de Khannah trajo una presentación de PowerPoint titulada "Actualización de Endofactors". Mientras Khannah lo mostraba en una pantalla con un proyector, los cinco miembros de su equipo se miraron furtivamente, nerviosos de que Balwani pudiera conviértete en sabio para la broma. Pero no se inmutó y la reunión se desarrolló sin incidentes. Después de que salió de la habitación, se echaron a reír.

Khannah y su equipo también lograron que Balwani usara el oscuro término de ingeniería "craqueo". Normalmente se refiere a un fenómeno que produce finas grietas en la superficie de un material, pero Khannah y sus colegas lo usaron liberalmente y fuera de contexto para ver si podría hacer que Balwani lo repita, lo cual hizo. El conocimiento de Balwani sobre la química no fue mejor. Pensó que el símbolo químico del potasio era P (es K; P es el símbolo del fósforo), un error que la mayoría de los estudiantes de química de la escuela secundaria no cometerían.

Sin embargo, no todos los contratiempos que se encontraron durante el desarrollo del miniLab pudieron ser puestos a los pies de Balwani. Algunos fueron una consecuencia de las demandas irrazonables de Holmes. Por ejemplo, ella insistió en que los mini cartuchos MiniLab siguen siendo de cierto tamaño, pero siguió queriendo agregarles más ensayos. Khannah no entendía por qué los cartuchos no podían crecer media pulgada ya que los consumidores no los podían ver. Holmes había abandonado su plan de colocar los dispositivos Theranos en las tiendas Walgreens y operarlos de forma remota, para evitar problemas con la FDA. En cambio, la sangre extraída de los dedos de los pacientes sería enviada al laboratorio de Palo Alto de Theranos y probada allí. Pero ella permaneció atrapada en la noción de que el miniLab era un dispositivo de consumo, como un iPhone o un iPad, y que sus componentes necesitaban verse pequeños y bonitos. Todavía alimentaba la ambición de ponerlo en las casas de las personas algún día, como le había prometido a los primeros inversionistas.

Otra dificultad surgió de la insistencia de Holmes en que el miniLab fuera capaz de realizar las cuatro clases principales de análisis de sangre: inmunoensayos, ensayos de química general, ensayos de hematología y ensayos que dependían de la amplificación del ADN. El único enfoque conocido que permitiría combinarlos a todos en una máquina de escritorio era utilizar robots con pipetas. Pero este enfoque tenía un defecto inherente: con el tiempo, la precisión de una pipeta se desplaza. Cuando la pipeta es nueva, aspirar 5 microlitros de sangre puede requerir que el pequeño motor que activa la bomba de la pipeta gire en cierta cantidad. Pero tres meses más tarde, esa misma rotación del motor podría producir solo 4.4 microlitros de sangre, una diferencia lo suficientemente grande como para descartar todo el ensayo. Si bien la deriva de la pipeta fue algo que afectó a todos los analizadores de sangre que dependían de los sistemas de pipeteo, el fenómeno fue particularmente pronunciado en el miniLab. Sus pipetas tuvieron que ser recalibradas cada dos o tres meses, y el proceso de recalibración puso el dispositivo fuera de servicio durante cinco días.

Kyle Logan1, un joven ingeniero químico que se había unido a Theranos desde Stanford, tenía frecuentes debates con Sam Anekal sobre este tema. Pensó que la compañía debería migrar a un sistema más confiable que no implicara pipetas, como el que Abaxis usó en su analizador Piccolo Xpress. Anekal respondería que el Piccolo podría realizar solo una clase de análisis de sangre, análisis de química general. (A diferencia de los inmunoensayos, que miden una sustancia en la sangre mediante el uso de anticuerpos que se unen a la sustancia, los análisis químicos generales se basan en otros principios químicos como la absorción de luz o los cambios de señal eléctrica). Holmes quería una máquina más versátil, recuerda a Logan.

En comparación con los grandes analizadores de sangre comerciales, otra de las debilidades evidentes del miniLab era que solo podía procesar una muestra de sangre a la vez. Las máquinas comerciales eran voluminosas por una razón: fueron diseñadas para procesar cientos de muestras simultáneamente. En la jerga de la industria, esto era conocido por tener un "alto rendimiento". Si los centros de bienestar de Theranos atraían a muchos pacientes, el bajo rendimiento del miniLab daría lugar a largos tiempos de espera y haría una broma de la promesa de la compañía de resultados de pruebas rápidos.

En un intento por remediar este problema, alguien había tenido la idea de apilar seis miniLabs uno encima del otro y hacer que compartieran un citómetro para reducir el tamaño y el costo del artilugio resultante. Esta máquina de Frankenstein se llamaba "seis cuchillas", un término tomado de la industria informática, donde los servidores de apilamiento uno encima de otro son comunes para ahorrar espacio y energía. En estas configuraciones de apilamiento modular, cada servidor recibe el nombre de "blade".

Pero nadie se había detenido a considerar qué implicaciones tendría este diseño con respecto a una variable clave: la temperatura. Cada cuchilla miniLab genera calor y aumenta el calor. Cuando las seis cuchillas procesaban muestras al mismo tiempo, la temperatura en las cuchillas superiores alcanzaba un nivel que interfería con sus ensayos. Logan, quien tenía 22 años y acababa de salir de la universidad, no podía creer algo que se hubiera pasado por alto.

Aparte de sus problemas con el cartucho, la pipeta y la temperatura, muchos de los otros problemas técnicos que plagaron al miniLab podrían atribuirse al hecho de que se mantuvo en una etapa de prototipo muy temprana. Menos de tres años no fue mucho tiempo para diseñar y perfeccionar un dispositivo médico complejo. Estos problemas iban desde el aterrizaje de los brazos de los robots en los lugares equivocados, haciendo que las pipetas se rompieran, hasta los espectrofotómetros mal alineados. En un momento, estalló la centrífuga de centrifugado de sangre en uno de los miniLabs. Estas eran todas las cosas que podían arreglarse, pero llevaría tiempo. Aún faltan varios años para que la compañía tenga un producto viable que pueda usarse en pacientes.

Sin embargo, como Holmes lo vio, no tenía varios años. Doce meses antes, el 5 de junio de 2012, firmó un nuevo contrato con Walgreens que comprometió a Theranos a lanzar sus servicios de análisis de sangre en algunas de las tiendas de la cadena de farmacias para el 1 de febrero de 2013, a cambio de una innovación de $ 100 millones. tarifa "y un préstamo adicional de $ 40 millones.

Theranos había pasado por alto ese plazo, otra postergación en lo que desde la perspectiva de Walgreens habían sido tres años de retrasos. Holmes estaba decidido a lanzar en las tiendas Walgreens para septiembre.

Como el miniLab no estaba en estado de despliegue, Holmes y Balwani decidieron lanzarlo con un dispositivo más antiguo llamado Edison. Eso, a su vez, condujo a otra decisión fatídica: la decisión de hacer trampa.

EN JUNIO, DANIEL Young, el inteligente PhD del MIT que dirigió el equipo biomath de Theranos, vino a ver a Beam en Jurassic Park con un subordinado llamado Xinwei Gong. En los cinco años transcurridos desde que se unió a Theranos, Young había ascendido para convertirse en el tercer ejecutivo de facto de la compañía. Él tenía la oreja de Holmes y Balwani, y con frecuencia le consultaban para resolver problemas técnicos molestos.

En sus primeros años en Theranos, Young parecía el hombre de familia, saliendo de la oficina a las seis todas las noches para cenar con su esposa y sus hijos. Esta rutina había provocado risas a sus espaldas por parte de algunos colegas. Pero después de ser ascendido a vicepresidente, Young se convirtió en una persona diferente. Trabajó más horas y se quedó en la oficina más tarde. Estaba muy borracho en las fiestas de la compañía, lo que era desagradable porque siempre estaba tranquilo e inescrutable en el trabajo.

Young le dijo a Beam que él y Gong iban a juguetear con ADVIA 1800, uno de los analizadores comerciales del laboratorio. La ADVIA era una descomunal máquina de 1.320 libras del tamaño de dos grandes fotocopiadoras de oficinas fabricadas por Siemens Healthcare, la filial de productos médicos del conglomerado alemán.

Durante las próximas semanas, Beam observó que Gong pasa horas abriendo la máquina y filmando sus entrañas con su cámara de iPhone. Estaba intrigando para tratar de hacerlo compatible con pequeñas muestras de sangre con puntas de dedo, se dio cuenta Beam. Parecía una confirmación de lo que Patel le había dicho: el 4S no debe estar funcionando; de lo contrario, ¿por qué recurrir a medidas tan desesperadas? Beam sabía que Edison solo podía realizar inmunoensayos, por lo que tenía sentido que Young y Gong eligieran ADVIA, que se especializaba en ensayos de química general.

Uno de los paneles de análisis de sangre más comúnmente ordenados por los médicos se conoce como el panel "chem 18". Sus componentes, que iban desde pruebas para medir electrolitos como sodio, potasio y cloruro hasta pruebas usadas para monitorear la función renal y hepática de los pacientes, fueron todos ensayos de química general. Lanzar en las tiendas Walgreens con un menú de análisis de sangre que no incluía estas pruebas habría sido inútil. Representaban alrededor de dos tercios de las órdenes de los médicos. Pero el ADVIA fue diseñado para manejar una mayor cantidad de sangre de la que podrías obtener pinchándote un dedo. Young y Gong idearon una serie de pasos para adaptar el analizador Siemens a muestras más pequeñas. El principal de ellos fue el uso de un gran manipulador de líquido robótico llamado Tecan para diluir las pequeñas muestras de sangre recogidas en los nanotainer con una solución salina. Otra era transferir la sangre diluida en copas de diseño personalizado de la mitad del tamaño de las que normalmente entraban en ADVIA.

La combinación de estos dos pasos resolvió un problema conocido como "volumen muerto". Al igual que muchos analizadores comerciales, el ADVIA presentó una sonda que descendía a la muestra de sangre y la aspiraba. Aunque aspiró la mayor parte de la muestra, siempre quedaba algo de líquido sin usar en la parte inferior. Al reducir el tamaño de la copa de muestra, acercó su fondo a la punta de la sonda y diluyó la sangre para crear más líquido con el que trabajar.

Beam tenía reservas sobre la parte de dilución. El analizador de Siemens ya diluyó las muestras de sangre cuando realizó sus ensayos. El protocolo que Young y Gong habían ideado significaba que la sangre se diluiría dos veces, una vez antes de entrar a la máquina y una segunda vez dentro. Cualquier director de laboratorio que valga la pena sabía que cuanto más manipulaste una muestra de sangre, más espacio habías introducido por error.

Además, esta doble dilución redujo la concentración de los analitos en las muestras de sangre a niveles que estaban por debajo del rango de medición analítica aprobado por la FDA de ADVIA. En otras palabras, significaba usar la máquina de una manera que ni el fabricante ni su regulador aprobaron. Para obtener el resultado final del paciente, uno tenía que multiplicar el resultado diluido por el mismo factor por el que se había diluido la sangre, sin saber si el resultado diluido era incluso confiable. Young y Gong estaban, no obstante, orgullosos de lo que habían logrado. En el fondo, ambos eran ingenieros para quienes la atención al paciente era un concepto abstracto. Si su cambio resultó tener consecuencias adversas, no serían ellos los que serían considerados personalmente responsables.

Al acercarse el 9 de septiembre de 2013, la fecha que Holmes había establecido para el lanzamiento, a Beam le preocupaba que Theranos no estuviera listo. Dos de los ensayos realizados en los analizadores Siemens hackeados estaban dando al laboratorio problemas particulares: sodio y potasio. Beam sospechó que la causa de este último era un fenómeno conocido como "hemólisis", que ocurre cuando los glóbulos rojos estallan y liberan potasio adicional en la muestra. La hemólisis era un efecto secundario conocido de la colección de punción digital. Ordeñar la sangre de un dedo crea estrés en los glóbulos rojos y puede hacer que se rompan.

Beam había notado un pedazo de papel con un número grabado en la ventana de la oficina de Holmes. Fue su cuenta regresiva de lanzamiento. Al verlo, entró en pánico. Unos días antes del lanzamiento, fue a verla y le pidió que se demorara. Holmes no era su auto de confianza habitual. Su voz era trémula y estaba visiblemente temblando mientras trataba de tranquilizarlo diciéndole que todo estaría bien. Si era necesario, podían recurrir a los drenajes venosos regulares, le dijo. Eso brevemente hizo que Beam se sintiera mejor, pero su ansiedad regresó tan pronto como dejó su oficina.

Anjali Laghari1, una farmacéutica que dirigió el grupo de inmunoanálisis, se sintió consternada cuando regresó de sus vacaciones de tres semanas en India a fines de agosto. Su equipo había intentado durante años desarrollar pruebas de sangre en el dispositivo más antiguo de Theranos, el Edison. Para su frustración, la tasa de error de las máquinas en blanco y negro aún era alta para algunas pruebas. Holmes y Balwani le habían prometido durante un año que todo estaría bien una vez que la compañía presentara su dispositivo de próxima generación, el 4S. Excepto que ese día nunca pareció llegar. Eso estuvo bien mientras Theranos siguiera siendo una operación de investigación y desarrollo, que aún era el caso cuando Laghari partió para India tres semanas antes. Pero ahora, de repente, todo el mundo hablaba de "salir a la luz" y había mensajes de correo electrónico en su bandeja de entrada que se referían a un lanzamiento comercial inminente.

¿Lanzamiento? ¿Con que? Laghari se preguntó con creciente alarma.

En su ausencia, se enteró de que los empleados que no estaban autorizados como personal de laboratorio de CLIA habían sido ingresados ​​en el laboratorio. No sabía por qué, pero sí sabía que el laboratorio tenía instrucciones de ocultar lo que estaban haciendo los representantes de Siemens cuando acudían al servicio de las máquinas del fabricante alemán.

También se habían realizado cambios en la forma en que se procesaban las muestras en los Edison. Bajo las órdenes de Balwani, ahora estaban siendo prediluidos con un manipulador de líquidos Tecan antes de pasar por el dispositivo. Esto fue para compensar el hecho de que el Edison podría ejecutar al menos tres pruebas en una muestra de un dedo. La predilución de la sangre creó más volumen para ejecutar más pruebas. Pero si el dispositivo ya tenía una alta tasa de error en circunstancias normales, parecía probable que un paso adicional de dilución empeorara las cosas.


Laghari también tenía preocupaciones sobre los nanotainers. La sangre se secaría en los tubos pequeños y ella y sus colegas a menudo no podían extraer lo suficiente de ellos. Trató de dar sentido a Holmes y Young enviándoles por correo electrónico los datos de Edison del último estudio de Theranos con una compañía farmacéutica, Celgene, que datan de 2010. En ese estudio, Theranos utilizó el Edison para rastrear marcadores inflamatorios en la sangre de pacientes que tenía asma Los datos mostraron una tasa de error inaceptablemente alta, lo que provocó que Celgene terminara la colaboración de las compañías. Nada había cambiado desde ese estudio fallido, Laghari les recordó.

Ni Holmes ni Young reconocieron su correo electrónico. Después de ocho años en la compañía, Laghari sintió que estaba en una encrucijada ética. Seguir trabajando en los problemas del producto era una cosa cuando estaba en modo R & D y pruebas de sangre ofrecidas voluntariamente por los empleados y sus familiares, pero entrar en funcionamiento en las tiendas Walgreens significaba exponer a la población general a lo que esencialmente era un gran experimento de investigación no autorizado . Eso era algo con lo que no podría vivir. Ella decidió renunciar.

Tina Noyes, su suplente en el grupo de inmunoanálisis que había trabajado en Theranos durante más de siete años, también renunció.

Las renuncias enfurecieron a Holmes y Balwani. Al día siguiente, convocaron al personal para una reunión con todos los manos en la cafetería. Las copias de The Alchemist, la famosa novela de Paulo Coelho sobre un pastor pastor andaluz que encuentra su destino yendo de viaje a Egipto, habían sido colocadas en cada silla. Todavía visiblemente enojado, Holmes les dijo a los empleados reunidos que estaba construyendo una religión. Si había alguno entre ellos que no creía, deberían irse. Balwani lo dijo de manera más directa: cualquiera que no esté preparado para mostrar una devoción completa y una lealtad absoluta a la compañía debería "irse a la mierda".

No pasará mucho tiempo antes de que todos los empleados de Theranos salgan a la calle. En marzo, la Securities and Exchange Commission acusó a Holmes y Balwani de fraude, despojando a Holmes de su participación mayoritaria en la empresa, multando con $ 500,000 y prohibiéndole ser funcionaria o directora de una empresa pública durante 10 años. Después de despedir a otros 100 empleados, Holmes dijo a los inversionistas el mes pasado que la empresa enfrenta una liquidación y que podría tener que cerrar tan pronto como en julio. Mientras tanto, la oficina del fiscal de los Estados Unidos en San Francisco está llevando a cabo una investigación criminal que podría resultar en acusaciones tanto de Holmes como de Balwani.

martes, 15 de mayo de 2018

IA: Algoritmo distingue libros por sus tapas

Red neuronal profunda aprende a juzgar libros por sus cubiertas

Un algoritmo de visión artificial puede distinguir el género de un libro mirando su portada. Esto allana el camino para que los sistemas de IA diseñen las cubiertas por sí mismos.
por Emerging Technology del arXiv


El modismo "nunca juzgues un libro por su portada" advierte contra la evaluación de algo puramente por la forma en que se ve. Y, sin embargo, las portadas de los libros están diseñadas para darles a los lectores una idea del contenido, hacer que quieran tomar un libro y leerlo. Las buenas portadas de libros están diseñadas para ser juzgadas.

Y los humanos somos bastante buenos en eso. Es relativamente sencillo elegir un libro de cocina o una biografía o una guía de viaje con tan solo mirar la portada.

Y eso plantea una pregunta interesante: ¿las máquinas también pueden juzgar los libros por sus cubiertas? Ya sabemos que juzgan a las personas por sus tapas.




Hoy recibimos una respuesta gracias al trabajo de Brian Kenji Iwana y Seiichi Uchida en la Universidad de Kyushu en Japón. Estos chicos han entrenado una red neuronal profunda para estudiar portadas de libros y determinar la categoría de libro de donde provienen.

Su método es directo. Iwana y Uchida descargaron 137.788 portadas de libros únicos de Amazon.com junto con el género del libro. Hay 20 géneros posibles, pero cuando un libro se incluyó en más de una categoría, los investigadores utilizaron solo el primero.

Luego, el par usó el 80 por ciento del conjunto de datos para entrenar una red neuronal y reconocer el género mirando la imagen de portada. Su red neuronal tiene cuatro capas, cada una con hasta 512 neuronas, que juntas aprenden a reconocer la correlación entre el diseño de la portada y el género. El par usó otro 10 por ciento del conjunto de datos para validar el modelo y luego probaron la red neuronal en el 10 por ciento final para ver qué tan bien categoriza las cubiertas que nunca ha visto.

Los resultados hacen una lectura interesante. El algoritmo enumeró el género correcto en sus tres opciones principales más del 40 por ciento del tiempo y encontró el género exacto más del 20 por ciento del tiempo. Eso es significativamente mejor que el azar. "Esto muestra que la clasificación de diseños de portadas de libros es posible, aunque es una tarea muy difícil", dicen Iwana y Uchida.

Algunas categorías resultan más fáciles de reconocer que otras. Por ejemplo, los libros de viaje y libros sobre computación y tecnología son relativamente fáciles de detectar para la red neuronal porque los diseñadores de libros usan consistentemente imágenes y diseños similares para estos géneros.

La red neuronal también descubrió que los libros de cocina eran fáciles de reconocer si usaban imágenes de alimentos, pero eran completamente ambiguos si usaban un diseño diferente, como una imagen del chef.

Las biografías y las memorias también eran problemáticas y el algoritmo a menudo seleccionaba la historia como categoría. Curiosamente, para muchos de estos libros, la historia es el género secundario enumerado en Amazon, lo que sugiere que el algoritmo no fue engañado por completo.

El algoritmo también confundió los libros para niños con cómics y novelas gráficas, así como libros de medicina y libros de ciencias. Quizás eso también es comprensible dadas las similitudes entre estas categorías.

Hay una falla en este trabajo. Iwana y Uchida no han comparado el rendimiento de su red neuronal con la capacidad de los humanos de reconocer los géneros de los libros por sus portadas. Eso sería un experimento interesante y uno que sería relativamente sencillo de hacer con un servicio de crowdsourcing en línea como Amazon Mechanical Turk.

Hasta que se haga ese trabajo, no hay forma de saber si las máquinas son mejores en esta tarea que los humanos. Aunque, sin importar lo buenos que sean los humanos en esta tarea, seguramente es sólo cuestión de tiempo antes de que las máquinas los superen.

Sin embargo, este es un trabajo interesante que podría ayudar a los diseñadores a mejorar sus habilidades cuando se trata de portadas de libros. Un resultado más probable, sin embargo, es que podría usarse para entrenar máquinas para diseñar portadas de libros sin necesidad de aportes humanos. Y eso significa que el diseño de la portada del libro es solo otro trabajo que se asignará a los libros de historia.

lunes, 14 de mayo de 2018

Testeo de software como salida laboral

TESTING DE SOFTWARE: LO HACEN SOLO 13 ARGENTINOS Y DA SUELDOS DE HASTA US$ 2.500

EN LOS ÚLTIMOS AÑOS, LA LABOR DEL TESTER SE PROFESIONALIZÓ Y PASÓ A SER UN SEGMENTO CODICIADO POR LAS EMPRESAS. CÓMO SE METIERON DE LLENO EN EL CORAZÓN DEL NEGOCIO.

Por MATIAS NAHUEL CASTRO  - InfoTechnology




Testing de software: lo hacen solo 13 argentinos y da sueldos de hasta US$ 2.500
Hay dos cosas tan seguras como la finitud humana y los impuestos: que cada vez más las empresas dependen críticamente de la tecnología para su core de negocio y que todo el software que existe está roto; como reza el adagio popular del mundo IT. Los desarrollos se potencian vigorosamente, la ventaja competitiva está en la innovación, y ese diferencial es sinónimo muchas veces de éxito comercial que se traduce en más marketshare o más ganancias. Pero en un mundo de negocios regido por los vertiginosos —y serpenteantes— ritmos de la tecnología, ¿quién para la pelota y marca la cancha para que haya, también, jogo bonito?

Se trata de los testers, un área otrora relegada a los juniors del área de tecnología corporativa y poco respetada entre los pares, que ahora vuelve con la fuerza que demanda un público cada vez más exigente, que no resiste ni el menor desliz cuando de tecnología se trata. Quiénes son los nuevos testers profesionales, qué pueden aportar a la tecnología del negocio y cómo se insertan dentro de los equipos tradicionales de IT.

El testing rompe el cascarón

El panorama del mundo IT en la Argentina no es demasiado alentador, si de empleos se trata. Según los últimos datos de la Cámara de la Industria Argentina del Software (Cessi), el año pasado se generaron un total de 8.500 puestos de trabajo, quedando un aproximado de 5.000 sin cubrir. La mitad de esas búsquedas está enfocada en programación, análisis de base de datos, análisis funcional y testing, según la última encuesta de EducaciónIT que involucró a más de 1.000 empresas a escala nacional. La compañía reveló que si bien las empresas se enfocan en programadores (46 por ciento de las búsquedas) los puestos que siguen en relevancia están todos relacionados con la calidad: analistas funcionales (11 por ciento), soporte técnico (9 por ciento) y especialistas en testing (7 por ciento).

El caso del testing es doblemente interesante, porque por un lado creció cuantitativamente (su participación global en 2016 aumentó un 13 por ciento, especialmente en los rubros de e-Commerce y aplicaciones móviles según la consultora de análisis de procesos de outsourcing NelsonHall) y por el otro cualitativamente, porque se profesionalizó la labor, de la mano de certificaciones internacionales y estándares de trabajo.

Alguien que conoce bien el nacimiento de esta historia es Marcelo Pires. “El testing cambió porque cambió el ecosistema; hoy, las empresas hacen tecnología con foco en el cliente, no solo de uso interno. En ese sentido, los errores pesan distinto: es diferente un error en el sistema interno que uno de cara al cliente. Por eso nació la necesidad de prueba independiente, ya que nadie piensa en sacar algo al mercado que no esté fuertemente testeado”, cuenta Pires, analista en Sistemas por la UTN y socio de la empresa de testing y consultoría tecnológica Gestión IT.

“La otra razón es que el core de muchos negocios es hoy tecnológico, debido al proceso de la transformación digital de las empresas”, dice Pires, que comenzó en la empresa en 2002, trabajando con un producto de cash management (para gestión de pagos y cobros) que usan seis bancos de la Argentina y es parte del core bancario.

“Tuvimos gente en testing y desarrollo juntos. Pero en el año 2006 nos dimos cuenta de que había que separarlos cuando todo el testing lo hacia el analista o desarrollador. El año que efectuamos ese cambio fue 2008, cuando Supervielle estaba cambiando el core y nos contrató para varios servicios, uno de ellos de testing. Los convencimos de la necesidad de separar equipos y condujimos un grupo independiente de pruebas. El segundo caso local que usó equipos independientes fue el banco Patagonia”, recuerda Pires.

Estos robots te van a dar pesadillas (y la idea es que se queden con tu trabajo)
infotechnology.com
Antes, el rol de la tecnología en el corazón de los negocios era diferente. “De los 90 en adelante se profesionalizó la IT corporativa. Pasó con la aparición de las metodologías ágiles, los equipos de trabajo, el desarrollo y el testing, donde se nota mucho más ese cambio porque antes lo podía hacer cualquiera. No había metodología ni profesión, el tester hacía changas pero ahora es un cuadro técnico”, explica Ulises Martins, ingeniero en Sistemas por la UTN, donde además brinda un curso de posgrado sobre calidad y es coordinador académico.


Probando, probando…

De la profesionalización y el interés de las compañías por el testing emergió un concepto clave que, cuesta pensar, no estaba formalizado hasta entonces: calidad. “Entre 2009 y 2010 empezaron a aparecer los intentos de certificar la calidad en tecnología. Se asociaron las tareas del tester al control de la calidad, las políticas de producción y los procedimientos. Hoy, es el área de QA, Quality Assurance o aseguramiento de calidad quien se encarga del testing. Es control de calidad, básicamente”, detalla Gustavo Terrera, analista de Sistemas por la Universidad Argentina de la Empresa (UADE) y fundador de Testing Baires, la primera organización de testers de la Argentina.


“Las empresas se dieron cuenta de que la calidad es clave para el negocio.” — Gustavo Terrera, fundador de Testing Baires.

“El usuario no conoce el código, no sabe, hay ceros y unos pero el usuario toca el hardware o la interfaz. A uno lo llaman, le dicen 'mira, esta pantalla no funciona' y hay que solucionarlo. Eso es calidad”, sintetiza Jorge Dobrusky, ingeniero en Sistemas por la UBA y fundador de la pyme Tester, enfocada en QA.

“La calidad se divide en QC, control de calidad, y QA, aseguramiento de calidad. La idea es poder decir que este software puede hacer esta función con este nivel de calidad, por ejemplo 80 por ciento. ¿Alcanza con 80 por ciento o vamos por el 100 por ciento? Buscar eso es QA y saber que se está en 80 por ciento es QC”, señala Dobrusky, que pasó por varias empresas haciendo QA incluida Molinos Río de la Plata y se especializó en QA trabajando en el core de negocios del rubro seguros en empresas como Alliance.

“La empresa que no tiene calidad y quiere incorporarlo piensa que de pronto tiene alguien de afuera que le va a decir todo lo que está haciendo mal. Que se va a gestionar porel faltante, pero eso es un error, se trabaja de forma integradora. Acompañamos porque conocemos los errores, muchos fuimos desarrolladores y sabemos que no se pueden evitar todos los errores. Tener errores hoy en el negocio es perder plata, el que pierde plata es quien paga el sueldo a los usuarios y quien nos paga la factura a nosotros”, se explaya el analista senior certificado.

A fuerza de mercado, las empresas están incorporando cada vez más testers a los equipos. “La evolución se da de manera paulatina, las empresas se están dando cuenta ahora que cuando firman un contrato o planifican un negocio es clave que la calidad esté asegurada. Esa calidad era un diferencial a mejorar. Desde calidad de comercio, de cara al cliente o de mejora de los procesos. Ahora pueden demostrar el producto que salió a producción tiene un aval y aseguramiento de control de calidad. Ahí intervienen normas de calidad internacionales y locales”, resume Terrera.

En nuestro país hay diferentes experiencias, a pesar de que el rubro no esté desarrollado en todo su potencial: desde desarrollo y mantenimiento en mobile, pasando por banca y automotriz, hasta farmacéutica y medicina. El caso del e-commerce ejemplifica bien tanto la transformación digital como el lugar transversal de la calidad en el negocio.

“Cuando las empresas preparan sus precios para el Cybermonday o para el Black Friday tienen que saber si los sistemas están preparados. Ver, desde el QA, dónde están los cuellos de botella y correr simulaciones que estresen en el sistema a ver qué pasa si se reciben el doble de visitas. Despegar usaba publicidad en horarios picos como partidos de fútbol o programas de televisión y si el sistema ahí falla, se le falla al cliente que puede irse a la competencia”, desarrolla Dobrusky.

Cómo se hace, en el ya de por sí diversificado y siempre insuficiente mercado de trabajadores tecnológicos, para armar un equipo de testing. Por un lado, “no hay fórmula matemática para saber cuántos testers se necesitan. Pasa por el apoyo a los proyectos, si hay 20 personas hay que ver qué necesidades tiene cada proyecto y cuánto quiere invertir la empresa. Si son 20 personas trabajando en mobile, quizás con dos o tres testers es suficiente, pero no se sabe a ciencia cierta. El portfolio de tipo de tests, más el soporte, más partners, más alguna especificidad del negocio suele ser buen indicador de la cantidad de testers que se necesitan”, aventura Terrera.

Por un lado, algunas empresas ofrecen servicios de consultoría, donde los equipos externos se encargan de la auditoría y de proyectos específicos. “Hay una mayor apertura a la terciarización porque el testeo no lo hace ni el desarrollador ni el funcional, que suelen ser los puestos principales”, dice Pires, que desde su empresa GestiónIT apuesta a la diversidad.

“Tenemos varios formatos: desde colocación de profesionales al estilo Manpower, pasando por armar una estructura con líder de equipo, hasta trabajo remoto desde nuestras oficinas. También trabajamos a modo software factory con unidades de testing, que son como puntos donde una hora de un junior vale tantas unidades y un senior especializado en automatización vale tantas otras”, agrega.

En el peculiar contexto de mercado local, ¿es factible, con estos costos, incorporar calidad? Para entender el costo, “primero se ven las necesidades. A partir de ahí se puede plantear el tema. Por caso, se puede calcular cuántos analistas van a estar trabajando y la cantidad de horas en una asesoría. También se tiene que tener en cuenta el plan estratégico de la compañía o por el rumbo que tomará el negocio, en qué se quiere crecer y cómo”, dice Dobrusky, que recomienda como cálculo general entre un cuarto y un quinto de la inversión en tecnología que se haga.

De la changa a la certificación

Al día de hoy, existen 450 argentinos certificados en testing bajo la normativa de la Hispanic America Software Testing Qualifications Board (Hastqb), la más importante del mundo. La estimación es que alrededor de unos 300 trabajan en suelo argentino y sólo 13 están por encima del nivel más básico (nada más que 11 trabajan en nivel avanzado, solo dos están matriculados en análisis técnico y ninguno en nivel experto).

Por otro lado, las empresas que se dedican de manera exclusiva al testing o el análisis de calidad se cuentan con los dedos de una mano. Consultadas por INFOTECHNOLOGY, las fuentes del sector reconocen que el ecosistema lo componen un puñado de empresas de tecnología con cuadrillas y servicios de testing, como Tester, CDA y GestiónIT, esta última con el 70 por ciento de su facturación proveniente de testing y QA, y otras tantas que ofrecen los servicios de testing sin que formen parte integral del corpus de ganancias. Son compañías como Practia, Tsoft o Baufest.



Los testers que hoy se desempeñan en la Argentina saben que su rol cambió, que no son más los últimos orejones del tarro que trabajan medio tiempo probando a mano, casi ciegamente, un producto tecnológico. “Así es como nos engancharon a muchos, pero se necesita gente que tenga la cabeza en la calidad en vez de solo en el producto. Requiere un conocimiento del producto y trabajar codo a codo con el área de desarrollo, pero muchas veces sin meterte en el cómo funciona. Creo que hoy en la Argentina hay mucha gente que sabe mucho de teoría sobre cómo testear sin ponerse técnicos, eso los ayudó a encontrar un lugar en el mercado que todavía  necesita mucha gente”, dice un desarrollador con más de 10 años de experiencia en el mercado, que trabajó haciendo QA en los primeros años de MercadoLibre.

 Por eso remarca la importancia de la profesionalización. “Se requiere más especialización porque las tecnologías también van avanzando. También dejan de ser solo los casos de prueba, sino que empezás a discutir infraestructura y procesos como parte de cómo, cuándo y dónde esos tests van a ser ejecutados”, agrega.

Esa especialización es, en parte, un llamado de atención a las empresas para que puedan desarrollar un ecosistema que les sea beneficioso en términos de costo. “Una estrategia es que sea menos intensivo en mano de obra. Se puede automatizar el testing, para correr regresiones miles de veces y probar automáticamente. Se puede invertir en eso con la esperanza de que disminuya los costos porque tener 50 desarrolladores y 50 testers es demasiado caro”, propone Pires.

“Lo importante es siempre tener un plan de trabajo sobre cómo testear un desarrollo nuevo. Esto trae algunos problemas porque es muy difícil tener una persona por equipo que siga el ritmo de desarrollo de otras cuatro o cinco y aparte cuando hay que escalar la empresa tenés que hacer crecer el equipo de testing también. Además puede llevar tiempo y algunas idas y vueltas el generar una dinámica que sirva desde ambos puntos de vista; de desarrollo que no sienta que es una piedra en el zapato y que testing sienta que su trabajo es productivo y valorado”, concluye el experimentado tester.

Los nuevos sommelier de la tecnología vinieron para quedarse, no solo porque los negocios así lo demandan sino también porque los clientes y usuarios exigen que la tecnología reciba el tratamiento de curación que merece, dada su relevancia en la vida de todos. Al fin de cuentas, si no lo prueban ellos, el pulgar abajo lo termina dando el cliente.

jueves, 10 de mayo de 2018

Cómo diseñar equipos de para tomar mejores decisiones

Cómo diseñar equipos para mejorar casi cualquier proceso de toma de decisiones

Por Oliver Staley | Quartz





Por ahora, la ciencia está bien establecida: grupos de personas diversas toman mejores decisiones. Pero las estadísticas del lugar de trabajo son dolorosamente claras: la diversificación puede ser un proceso lento.

Mientras esperamos, hay otras formas de diseñar algunos de los beneficios de la diversidad, manipulando la estructura y los procesos de los equipos de trabajo.

Mirta Galesic, psicóloga y profesora de dinámica social humana, dice que las estructuras de los equipos casi siempre se pueden optimizar para producir mejores decisiones. En un evento sobre la ciencia de la diversidad organizado por el Instituto Santa Fe en marzo, explicó que si bien se han resuelto algunas condiciones -por ejemplo, el tamaño de una junta corporativa no puede ser manipulado de una reunión a otra-, otras pueden ser hacer ajustes, como la forma en que el equipo toma decisiones o con qué frecuencia comparte información. Al igual que los controles deslizantes en un ecualizador estéreo, las variables se pueden ajustar hacia arriba y hacia abajo, dependiendo de las necesidades del equipo, y la naturaleza de las decisiones que está tratando de tomar.

Si está tratando de optimizar el rendimiento de su equipo, estos son algunos factores importantes a tener en cuenta.

Tamaño del equipo

En un famoso experimento de 1906 en una feria del condado británico, el estadístico Francis Galton encuestó a los casi 800 participantes en un concurso para adivinar el peso de un buey. Mientras que muchos estaban descontrolados, su estimación promedio de 1.197 lbs. era casi idéntico al peso real del buey de 1.198 libras. La lección estadística es clara: para algunos problemas, cuantas más entradas, mejor.

Si su grupo está tratando de responder una pregunta relativamente simple que tiene una respuesta definitiva, contar con un gran número de personas alrededor de la mesa puede ser útil. Pero cuando se les pide a los equipos que tomen decisiones más complicadas, simplemente agregar más miembros no ayudará, dice Galesic.

Para determinar el tamaño óptimo de un equipo cuando se trata de abordar una combinación de preguntas simples y complejas, es importante conocer la experiencia de las personas en la sala. Si son muy buenos en la mayoría de las tareas, pero a veces cometen errores, entonces, estadísticamente, el número correcto de personas suele estar entre tres y quince, dice ella. Después de eso, los rendimientos disminuirán.

"La precisión de la mayoría del grupo aumentará rápidamente en tareas fáciles y disminuirá lentamente en tareas difíciles", dice Galesic. Después de cierto punto, "cuanto mayor es el tamaño del grupo, la precisión solo puede disminuir". Llegará a un punto máximo en algún momento y ya no habrá más retorno para agregar expertos ".

¿Qué pasa si no tienes un grupo de expertos? ¿Agregar a más personas al equipo ayuda? En una palabra, no. De acuerdo con el teorema del jurado de Condorcet, alcanzado por el marqués de Condorcet en 1785, preguntar a varias personas que probablemente estén equivocadas no mejora las probabilidades de que tengan razón. En esos escenarios, es mejor reducir a quienes toman las decisiones a una persona, que puede tropezar con la respuesta correcta.

Reglas del equipo

¿Cuál es la mejor manera para que un grupo finalice su decisión? Por regla de la mayoría? Regla de pluralidad? ¿Confiando en el miembro más antiguo o experto? Al igual que con elegir el tamaño óptimo del equipo, ayuda saber qué tipo de problema está resolviendo, dice Galesic.

Si se trata de un grupo de expertos (es decir, un grupo en el que los miembros tienen, en promedio, más de la mitad de tiempo), la regla de la mayoría es la mejor. Sin embargo, si la mayoría de las personas es probable que estén equivocadas, es mejor confiar en quien sea más probable que lo haga bien.

La elección de los mejores encargados de la toma de decisiones también puede depender de cómo se comparte la información en un grupo. ¿El equipo se reúne solo una vez al mes, como en una reunión de la junta, o están en continuo contacto en una plataforma de mensajería como Slack? Si hablan constantemente, pueden llegar a una respuesta rápidamente, pero su respuesta puede ser inferior a la que se podría obtener con más tiempo.

Si un equipo está en constante comunicación, Gelasic recomienda desacelerar el proceso de toma de decisiones y adoptar una regla de la mayoría, lo que obliga a una mayor deliberación y discusión. Si el equipo se reúne con poca frecuencia, entonces tiene sentido dejar la toma de decisiones a una persona, ya que la necesidad de ganar una mayoría puede ralentizar el proceso hasta el rastreo.

"Hay un punto positivo entre la velocidad de la red y la velocidad de la regla de decisión", dijo.

El peor sistema combina un lento proceso de toma de decisiones con la lenta transmisión de información, un cuerpo que se reúne raramente, y que alcanza todas las decisiones por mayoría de votos. Considere, por ejemplo, el senado de la facultad de una universidad.

Presión del equipo

La cantidad de presión que siente un equipo también puede influir en su toma de decisiones. El miedo puede ser un motivador poderoso y frente a las amenazas externas, las diferencias más pequeñas quedan en el camino y los grupos pueden unirse en torno a una idea central.

Si un equipo tiene tareas simples que deben llevarse a cabo rápidamente, las amenazas pueden ayudar a acelerar el proceso. La amenaza puede ser literal (docking pay o suspender privilegios) o arbitraria, como una fecha límite. Para las tareas donde no se requiere creatividad, la diversidad de pensamiento puede ser en realidad un perjuicio, mientras que la presión externa puede ayudar a aprovechar las despiadadas cualidades de la homogeneidad.

Pero con tareas más complejas, la presión externa puede ser contraproducente, dice Galesic. Los equipos amenazados son más propensos a ser víctimas del "pensamiento grupal", un término inventado por el psicólogo social Irving Janis para describir lo que sucede cuando las personas sucumben a la presión de un grupo. El pensamiento grupal puede florecer cuando los miembros del equipo comparten el mismo fondo, cuando no tienen acceso a opiniones externas y cuando no hay reglas claras para tomar decisiones. Algunos de los ejemplos más famosos de la historia del pensamiento grupal defectuoso -la metida de pata de los Estados Unidos en Vietnam, la prisa por declarar la guerra en Iraq- provenían de grupos bajo amenaza real o percibida.

Eliminar la presión de las amenazas, como los plazos, puede darles a los equipos espacio para respirar y, tal vez, llegar a una solución mejor de la que tendrían bajo el arma.

viernes, 4 de mayo de 2018

Google tiene su modelo de gerente basado en 6 premisas

Google pasó años estudiando jefes eficaces. Ahora les enseñan a los nuevos gerentes estas 6 cosas

La transición a la gestión requiere una transformación del pensamiento.
Por Michael Schneider Especialista en capital humano, Welltower @ MSchneiderTwts
Inc



La transición de colaborador individual a gerente no es fácil. En muchos casos, las habilidades que le dieron la promoción no serán las mismas que lo harán efectivo como gerente. Afortunadamente, tenemos organizaciones como Google que han pasado años investigando esta transición para ayudarnos a desmitificar los secretos del éxito de los nuevos gerentes.

Con el uso de Project Oxygen, un estudio interno que analizó más de 10.000 impresiones de directivos, incluidas revisiones de rendimiento, encuestas y nominaciones para reconocimientos y reconocimientos de altos directivos, Google identificó ocho hábitos de gerentes altamente efectivos. Google también diseñó un taller de capacitación en gestión para compartir sus nuevos conocimientos con sus jefes y ahora con el mundo.

A través del sitio web Re: Work de la compañía, un recurso que comparte la perspectiva de Google sobre las operaciones de las personas, Google publicó esta presentación de capacitación con la esperanza de que pueda beneficiar a todos.

Echemos un vistazo a los seis atributos clave que Google inculca en sus gerentes.

1. Mentalidad y valores

Implementando la investigación de la Dra. Carol Dweck, profesora de psicología en la Universidad de Stanford, Google alienta a sus gerentes a desarrollar una mentalidad de crecimiento. A diferencia de una mentalidad fija (la creencia de que las habilidades y capacidades están predeterminadas), las personas con una mentalidad de crecimiento creen que se puede cultivar la inteligencia. Esta idea simple desarrolla líderes que están más ansiosos por aprender, desafiarse a sí mismos y experimentar, y finalmente aumenta su rendimiento. Aunque el éxito siempre requerirá tenacidad, trabajo arduo y concentración, esta investigación sugiere que estos rasgos son subproductos de una calidad que los sostiene, el optimismo.

Además, Google alienta a sus gerentes a identificar valores y aprovecharlos dentro de sus estilos de gestión. El propósito no es imponer valores fijos, sino más bien capacitar a los líderes para que aprovechen su moral individual para generar un significado e impacto más profundos en su trabajo. Los gerentes deben tomar decisiones difíciles. Cuando se enfrentan a la incertidumbre, los valores pueden ser la gracia salvadora de un gerente.

2. Inteligencia emocional (EI)

Según Daniel Goleman y Richard Boyatzis (expertos en el tema), la IE es la capacidad de reconocer y comprender las emociones en usted y en los demás, y aprovechar esta conciencia para gestionar su comportamiento y sus relaciones. En otras palabras, es un sentido elevado de autoconciencia.

Los gerentes conscientes de sí mismos toman mejores decisiones, se comunican más efectivamente y son más identificables. De hecho, Goleman informó no solo que el liderazgo basado en la IE puede ser el impulsor más importante del clima, sino también que el clima puede representar del 20 al 30 por ciento del desempeño organizacional.

3. Transición del gerente

De acuerdo, entonces este no parece un atributo. Sin embargo, si echas un vistazo a la nueva guía del facilitador de capacitación de gerentes de Google, notarás algunos temas comunes. A medida que los instructores animan a los nuevos supervisores a compartir sus desafíos de transición y frustraciones con sus compañeros, enseñan simultáneamente que está bien ser vulnerable y honesto. A medida que los gerentes se abren y cuentan sus historias, otros intervienen con consejos y orientación que brindan nuevas estrategias viables.

Es importante que todos los gerentes sepan que no estás solo en esto. Otros se han enfrentado a desafíos similares y pueden ayudar, si los permite.

4. Coaching

A través del Proyecto Oxygen, se reveló que la calidad número uno de los gerentes efectivos es ser un buen entrenador. Google define un buen entrenamiento como:

  1. Comentarios oportunos y específicos
  2. Entregando comentarios duros de una manera motivacional y reflexiva
  3. Adaptar los enfoques para cumplir con los estilos de comunicación individuales en reuniones regulares uno-a-uno
  4. Practicar la escucha empática "activa" y estar completamente presente
  5. Ser consciente de su propia mentalidad y la del empleado
  6. Hacer preguntas abiertas para descubrir la perspicacia de un empleado


5. Comentarios

Las palabras de los gerentes tienen el poder de construir o destruir. Google entiende esta sensibilidad y les enseña a sus supervisores a ser consistentes (sin sesgos) cuando envían retroalimentación a través de sus equipos, para equilibrar los comentarios positivos (motivacionales) y negativos (del desarrollo), para ser auténticos y agradecidos, y para expresar las oportunidades de crecimiento en un claro compasivo

6. Toma de decisiones

Para garantizar que los juicios no se hagan en el vacío, Google ha establecido una rutina para ayudar a los gerentes a tomar mejores decisiones. Este marco incluye preguntar y articular:

  • ¿Para qué estás resolviendo y todos están en la misma página? (Identifique y comunique la causa raíz).
  • ¿Por qué es importante? (¿Es compatible con otros objetivos comerciales?)
  • ¿Quién es el que toma las decisiones?
  • ¿Cómo se tomará la decisión?
  • ¿Cuándo pueden las personas esperar una decisión? (Mantenga a las partes interesadas al tanto y administre las expectativas).

Además, para garantizar que se tomen decisiones informadas, Google alienta a los gerentes a evaluar sus ideas en voz alta y recopilar comentarios al abogar explícitamente por sus opiniones (expresar opiniones individuales, razonar y proporcionar datos), probar su comprensión indagando acerca de las perspectivas de otros (solicitando ideas y comentarios), y luego sintetizar las respuestas para garantizar una comprensión integral antes de tomar una decisión.

Si bien estos seis atributos pueden parecer básicos, según un artículo del New York Times, los resultados son todo lo contrario. Google reportó una mejora estadísticamente significativa en el 75 por ciento de sus gerentes de bajo desempeño luego de implementar el programa.

domingo, 29 de abril de 2018

Crisis en empresas familiares

Conflictos en empresas familiares

A veces la empresa familiar se puede tornar un ámbito donde impera la rivalidad, la descalificación y las discusiones.




Por Norberto Abdala, psiquiatra.
Clarín


Tenemos una pequeña empresa textil que manejamos por años con mi marido, con la ayuda de empleados fieles. Desde que entró mi hijo menor (38 años) todo cambió y tanto en casa como en el trabajo tenemos discusiones terribles porque se cre el dueño de todo. P.E.S., Castelar.

La importancia de las empresas familiares radica en que suelen ser claves en la creación de empleo y de riqueza en casi todos los países del mundo, se traten de pequeños emprendimientos o de grandes multinacionales.

Su característica principal es la interacción existente entre la dinámica familiar y empresarial, que muchas veces potencia, pero que también puede ser fuente de conflictos si no coincide la función primordial de la familia (asegurar el bienestar de sus integrantes y satisfacer sus necesidades emocionales) con los de la empresa (generar logros económicos).

Para el integrante de una familia suele ser muy halagador el ofrecimiento de formar parte del emprendimiento de trabajo que ya está en marcha, aunque eso implique la necesaria adaptación a un equipo laboral donde cada uno de sus integrantes ya tiene funciones determinadas en ese dinámico engranaje.

Pero esta inclusión suele tornarse complicada si existen conflictos familiares que se trasladan a la empresa o, a la inversa, cuestiones laborales que se discuten después en el ámbito familiar.

Este resulta sin duda el mayor problema: separar y hacer compatibles las relaciones familiares y de trabajo ya que los protagonistas en ambos escenarios son los mismos actores; por lo tanto, si los límites y las funciones no se separan y fijan con claridad, las tensiones –sean evidentes u ocultas– resultarán inevitables.

Un conflicto bastante frecuente y común deviene cuando quien se incorpora a la empresa no tiene los conocimientos o la calificación técnica suficiente como la de los otros empleados preexistentes y se le asigna o asume por cuenta propia una jerarquía superior a la del personal competente y experimentado.

Es usual que, por venir del seno familiar, el sujeto considere que tiene privilegios que le otorgan una categoría superior y, más aun, si el dueño de la empresa lo permite con la idea de evitar conflictos en casa.

Otra fuente de tensión resulta del envejecimiento del fundador si se cuestiona su liderazgo, se pretende su retiro o que entregue el timón en manos de los más jóvenes, tengan estos o no la experiencia suficiente para esa función.

Si esto ocurriera, el padre, que en la familia es el pater familia, en la empresa resulta cuestionado, y se genera así una conflictiva inversión de roles.

Un factor de poder que utilizan los jóvenes suelen ser los conocimientos en las nuevas tecnologías, y más aun si los mayores tienen dificultades o son renuentes para encararlas.

Mirá también
¿Qué es el síndrome de las piernas inquietas?
Muchas veces, la empresa familiar –exitosa para el sostén y crecimiento económico de la familia– se puede tornar paulatinamente un ámbito donde impera la rivalidad, la pretensión excesiva, la descalificación mutua y discusiones que hacen del ámbito familiar un lugar poco confortable para sus integrantes.

Aunque toda empresa enfrenta dificultades cotidianas y roces por las interacciones personales que se generan en la dinámica diaria, es en las empresas familiares donde pueden mostrarse de manera exacerbada por lo cual conviene el asesoramiento de expertos en el tema.

viernes, 13 de abril de 2018

Emprendorismo en jugos: Tres amigos exitosos y tramposos

Cuál fue la trampa de tres amigos para hacerse millonarios con sus batidos Innocent (y cómo sobrevivieron a la crisis financiera internacional)

Redacción
BBC Mundo


Los tres amigos iniciaron la empresa después de unas vacaciones.

Digamos que tienes una startup y llega el día soñado en que una gran cadena de supermercados te da la oportunidad de poner tu producto en las estanterías.

Te pones feliz, nervioso, acelerado y piensas. ¿Qué puedes hacer para que tu producto se venda?

Tres amigos británicos que enfrentaron esa disyuntiva decidieron que por ningún motivo iban a perder la oportunidad y pusieron en marcha una trampa. Digamos que se dieron "un primer empujón", según como se mire.

"Estábamos conscientes de que si los batidos se vendían bien, los iban a poner en más tiendas. Pero si no se vendían bien, todo habría llegado a su fin incluso antes de que hubiésemos partido", dice Richard Reed, uno de los cofundadores de la empresa junto a Adam Balon y Jon Wrigh.

"Entonces teníamos que asegurarnos de que los batidos se vendieran y la única forma de garantizarlo era que compráramos nuestros propios productos".


Hoy la empresa es una de las más grandes compañías de batidos y jugos en Europa.


"Fue un ejercicio de fingir hasta lograr el objetivo", cuenta Reed. "Afortunadamente comenzaron a subir las ventas y dejamos de comprar nuestro producto".

Eso fue hace ya 17 años.

Cuando 20 bancos te dicen que no

La historia partió cuando los tres jóvenes, que se habían hecho amigos en la Universidad de Cambridge, decidieron renunciar a sus trabajos para dedicarse al proyecto.

La idea se les ocurrió después de unas vacaciones esquiando y se pusieron manos a la obra. Básicamente, querían hacer batidos con ingredientes completamente naturales y frescos, sin utilizar conservantes ni concentrado de jugo.

El producto se llamaría Innocent (Inocente).

Además, desde el origen decidieron que 10% de las ganancias deberían ser donadas a organizaciones de caridad.

Con los ahorros que los tres habían juntado después de trabajar en el mundo corporativo se pusieron a preparar recetas en la cocina de una casa compartida, hasta que encontraron un granjero que les daría la fruta molida.


Los empresarios ahora manejan JamJar, un fondo de inversión.

Cuando llegó el momento de conseguir financiamiento, el camino no parecía fácil.

"Fuimos a 20 bancos y todos nos dijeron que no", cuenta Reed.

"Después intentamos con 500 firmas de capital de riesgo y la mayoría ni siquiera nos contestó", recuerda.

"Uno dijo que habíamos obtenido cero puntos en la revisión de los inversionistas porque éramos muy jóvenes, no habíamos designado un líder, no teníamos experiencia en el sector y nunca habíamos tenido una empresa".

Con ese escenario, los tres fundadores se dirigieron a todos sus familiares y amigos preguntándoles si alguien conocía a algún millonario que se interesara en invertir.


Cuando llegaron las nubes negras, tuvieron que vender.

Les sugirieron llamar a un inversionista estadounidense llamado Maurice Pinto. Lograron convencerlo y Pinto puso US$350.000. Luego recibieron el apoyo de Mike Lord, un empresario que tenía su propia empresa de jugos.

Cuando la empresa logró que las mayores cadenas de supermercados vendieran sus productos en las estanterías, las ventas se dispararon hasta que llegó la crisis financiera internacional de 2008.

Vender para sobrevivir

"Tuvimos 10 años de un increíble crecimiento, pero después tuvimos problemas cuando se produjo la crisis financiera. De repente bajaron nuestras ventas a medida que la gente optó por ahorrar", cuenta Reed.

"Después nos llamó nuestro fabricante y nos dijo que se fue a la bancarrota. Luego los bancos nos dijeron queremos nuestro dinero de vuelta y les contestamos que no lo teníamos. Nos dijeron que en ese caso, tendrían que quedarse con nuestro negocio".

"De pronto, nos vimos obligados a vender parte de nuestro negocio para salvarlo".


Una estrategia de promoción fue organizar festivales de música.

Recibieron distintas ofertas, hasta que decidieron venderle a Coca-Cola en varias fases consecutivas, en una operación que terminó de cerrarse en 2013, cuando las ventas anuales de Innocent llegaban a US$300 millones.

En ese momento vendieron la totalidad de la compañía a la multinacional estadounidense.

Aunque se quedaron como consultores en el directorio de la empresa.

"Fue como un cuento de hadas", dice Reed.

"Nos fue mejor de lo que pensábamos, nadie perdió su trabajo y la relación que tenemos con la multinacional es brillante. Coca-Cola se comprometió con los valores éticos, incluyendo la donación del 10% de las ganancias".

Innocent es en la actualidad una de las mayores empresas de batidos de fruta de Europa.

Y los tres emprendedores crearon su propia firma de inversiones donde arriesgan capital en otras startups que, al igual que ellos, quieren abrirse un espacio en el mundo de los negocios.

miércoles, 4 de abril de 2018

Las empresas que no supieron adaptarse y se fueron

Kodak, Nokia, Sega y PanAm, la historia de los gigantes que fracasaron por no adaptarse



Una aerolínea que reinó en los cielos durante seis décadas

Carlos Manzoni  La Nación


Los dinosaurios fueron reemplazados hace 65 millones de años por mamíferos más chicos cuya única cualidad adaptativa era que tenían sangre caliente. No fue la supervivencia del más fuerte, sino la del que mejor se supo adaptar. Con las empresas pasa lo mismo: bien lo supieron, a la fuerza, gigantes como Kodak , Nokia , PanAm, Sega y Daewoo, que debieron dejar su reinado a compañías más ágiles a la hora de surfear la ola del nuevo paradigma tecnológico.

De todos ellos, Kodak es, quizás, el caso más curioso y paradigmático, puesto que fue dentro de esa empresa que se desarrolló la tecnología que terminaría por herirla de muerte: la cámara digital. ¿Qué pasó? No apostó por ese formato hasta que fue demasiado tarde, temiendo que la ausencia de carrete en estas nuevas cámaras perjudicara su negocio de película fotográfica.


Alberto Arébalos, vicepresidente de MileniumGroup, agencia de comunicaciones corporativas, que hizo toda su carrera en empresas de tecnología, explica: "El dinero de Kodak eran los rollos, no las cámaras. Cuando empezó la tecnología digital, tendrían que haber entendido que vendían momentos y recuerdos, no rollitos".

Pero claro, es muy difícil pasar de un paradigma a otro, porque en el medio se pierde dinero (en ese momento 90% de la facturación de Kodak venía de la venta de rollos). Cisco y Google, por el contrario, lo entendieron y dejaron de hacer cosas que ya no iban más. Como decía Steve Jobs, "si no lo canibalizás vos, lo va a canibalizar otro". Y así fue como "otros" más ágiles de reflejos coparon el nuevo mercado de la fotografía digital.

La finlandesa Nokia, en tanto, fue la clara dominante del mercado en los años noventa, consiguiendo hacer de los teléfonos móviles un dispositivo para todo el mundo, pero no logró adaptarse a la era de los smartphones instalada por el iPhone, de Apple , seguido por Android, de Google. En lugar de cambiar, Nokia siguió apostando por una versión más moderna de su sistema operativo Symbian, que pese a que funcionaba bien en celulares de gama media y baja, no era suficiente para los teléfonos inteligentes.

Arébalos dice que algo similar a lo de Nokia les pasó a Blackberry y Palm. "Cuando tenés un producto que es muy exitoso y se vende, pero de repente aparece un competidor con una nueva tendencia, tenés dos opciones: ir hacia esa tendencia o seguir exprimiendo la vaca que ya tenés hasta que se le acaba la leche. Nokia optó por esto último", comenta el especialista. "Ahí la empresa se empieza a achicar y es cuando se produce el espiral de la muerte. Nokia sigue vivo, pero terminó en la irrelevancia", agrega.

En otra industria totalmente distinta a la de Kodak y Nokia, también hubo un dinosaurio que no se pudo adaptar. Se trata de PanAm, la aerolínea insignia de los Estados Unidos que fue reina absoluta de los cielos durante seis décadas (desde 1930 hasta su quiebra en 1991).

Según Fernando Dozo, especialista en el sector aerocomercial, hubo tres cosas que la "extinguieron": 1) su modelo de aviones grandes y rutas con escalas quedó en desuso y no tuvo reflejos para adaptarse a lo que ya estaban haciendo compañías más ágiles 2) empezó con los programas de fidelidad por millaje y la cantidad de premios se le fue de las manos y 3) al ser una de las aerolíneas más antiguas tenía convenios colectivos de trabajo muy costosos y difíciles de desarmar.

Para colmo, la empresa sufrió uno de los primeros atentados contra una aerolínea. El 21 de diciembre de 1988 su avión Boeing 747-121 explotó en el aire. Los restos cayeron sobre la ciudad escocesa de Lockerbie. Murieron las 259 personas que viajaban a bordo y 11 personas más en tierra.

¿Qué hizo mal PanAm? "Para intentar corregir la tendencia negativa, invirtió millones en una nueva flota de Boeing 747 con las expectativas de que la demanda de viajes transoceánicos seguiría en ascenso, algo que no ocurrió", responde Dozo. Luego, dio otro manotazo de ahogado al intentar compensar las pérdidas de las rutas internacionales con nuevos destinos nacionales. "Ya era tarde. Estaba demasiado especializada en vuelos transoceánicos y en el mercado nacional las rutas estaban bien cubiertas con compañías que llevaban años ofreciendo esos servicios", acota.

Por su parte, la compañía coreana de automóviles Daewoo llegó a ser el sexto entre los mayores fabricantes de coches del mundo, gracias a sus modelos de bajo coste y su internacionalización. Durante los años noventa, este holding se endeudó mucho para poder continuar con su expansión, y consiguió llegar a ser la segunda compañía de una emergente Corea del Sur.

Un exempleado que trabajó 15 años en Daewoo cuenta que en 1997, cuando estalló la crisis financiera asiática, el nivel de endeudamiento de la compañía era demasiado elevado. "En vez de alivianarse y volverse más ágil, Daewoo siguió comprando empresas y no se deshizo de activos deficitarios. La gran cantidad de deuda que tenía y la caída de las ventas hicieron imposible su recapitalización y más tarde, en 2000, fue declarada en bancarrota y comprada por General Motors", recuerda.

Por último, en Sega, una de las más grandes compañías de videojuegos de la historia, no vieron un surgimiento de otro tipo de plataformas para juegos, con otra tecnología: aparecieron las Nintendo y XBox, con otro planteamiento artístico. La llegada de la Sony Playstation y decisiones equivocadas en cuanto al hardware le dieron un golpe de gracia. Su consola Saturn era buena, pero era demasiado difícil programar para ella (debido a sus dos procesadores) con lo que la Playstation terminó robándole los usuarios. Al igual que Nokia pasó a ser irrelevante, porque los consumidores querían ya otro tipo de cosas.


 La Sega Saturn no cubrió las expectativas de los usuarios La Sega Saturn no cubrió las expectativas de los usuarios

Arébalos deja una conclusión final que puede ser tomada como consejo por los dinosaurios que hoy todavía se debaten entre la supervivencia y la extinción. "O no ves la transición o estás recibiendo tanta plata del paradigma viejo que te quedás; y te quedás tanto que ya cuando querés cambiar es demasiado tarde". Lamentablemente para Kodak, Nokia, PanAm, Daewoo y Sega, no se puede volver el tiempo atrás. Como hace 65 millones de años, la evolución sigue haciendo de las suyas, pero esta vez, en el mundo corporativo.

domingo, 25 de marzo de 2018

Ay, ay, ay.. Facebook rastrea tus llamadas y mensajes de texto

Los usuarios de teléfonos Android, Facebook estaba rastreando sus llamadas y mensajes de texto



Los usuarios de Android pueden haber dado involuntariamente a Facebook acceso a datos personales que no se dieron cuenta de que estaban regalando. (AP Photo / Marcio Jose Sanchez)


Marc Bain | Quartz

El alcance de Facebook en los datos de sus usuarios parece seguir creciendo.

Si bien la compañía se ocupa de las consecuencias del escándalo de Cambridge Analytica y de las numerosas inquietudes sobre la privacidad que ha planteado, las personas han estado indagando en sus archivos de datos descargables en la red para tener una idea de cuánto saben exactamente sobre ellos. Varios han llevado a Twitter el hallazgo de que Facebook tiene registros de sus llamadas y mensajes.

Siguiendo con esos tweets, el sitio de noticias tecnológicas Ars Technica descubrió que Facebook ha estado rastreando silenciosamente llamadas y mensajes de texto en teléfonos Android durante años.





Cuando descargas la aplicación de Facebook, solicita acceso a los contactos de tu teléfono, que usa para su algoritmo de recomendación de amigos. Ahora deja en claro que también quiere acceder a registros de llamadas y registros de SMS, pero en el pasado, los usuarios de Android pueden haber dado acceso a Facebook a estos datos sin saberlo, como resultado de la forma en que Android resolvió pedir permiso para los registros de llamadas.

Antes de Android 4.1 (por ejemplo, Jelly Bean), que se lanzó en 2012, cuando un usuario de Android le daba acceso a Facebook a los contactos telefónicos, Facebook también tenía acceso a los datos reales de llamadas y de texto por defecto.

Los permisos en la API de Android fueron modificados posteriormente, pero de acuerdo con Ars Technica, los desarrolladores podían evitar el cambio si escribían aplicaciones en versiones anteriores de la API. En octubre de 2017, Google finalmente dejó de usar la versión 4.0 de la API de Android.

(Los usuarios de iPhone, descansa fácil. Apple nunca ha permitido el acceso silencioso a los datos de llamadas).

En un correo electrónico al sitio, un vocero de Facebook explicó: "La parte más importante de las aplicaciones y servicios que lo ayudan a hacer conexiones es facilitar la búsqueda de las personas con las que desea conectarse. Por lo tanto, la primera vez que inicie sesión en su teléfono a una aplicación de mensajería o social, es una práctica ampliamente utilizada comenzar cargando los contactos de su teléfono ".

No está claro en este momento cuánto tiempo estuvo recopilando Facebook esta información, o exactamente cómo la usó. El problema también puede aplicarse solo a las personas que eligieron Facebook como la aplicación de mensajería predeterminada en su teléfono Android. Facebook aún tiene que aclarar. Nos hemos comunicado con sus portavoces para comentar y actualizaremos esta publicación con cualquier respuesta.

Las respuestas pueden no confortar a aquellos que ya sienten que la red no está manejando su información privada tan cuidadosamente como debería.

Puede que no importe mucho. Facebook tiene tantos usuarios y está tan profundamente arraigada en las vidas de las personas que podría ser demasiado grande para caer en esta etapa, sin mencionar que muchos no han confiado en Facebook durante años, pero aún continúan usándolo.

sábado, 10 de marzo de 2018

Infografía: 200 factores afectando tu posicionamiento SEO en Google

200 factores de SEO que podrían afectar su posición en Google [Infografía]


Mark Walker-Ford
@MarkWalkerFord
Social Media Today


Por lo tanto, intenta que su sitio web tenga una clasificación más alta en Google, pero ¿qué es exactamente lo que ven cuando deciden dónde ubicar su sitio?

Coalition Technologies comparte los factores de clasificación que debe conocer en esta infografía.

Desglosan las cosas en las siguientes secciones:

  • Factores de dominio
  • Factores de nivel de página
  • Factores a nivel del sitio
  • Factores de enlace de retroceso
  • La interacción del usuario
  • Reglas de algoritmo
  • Paquetes web en el sitio
  • Señales de marca
  • Señales sociales
  • Pausa web fuera de la página
  • Vea su infografía para más detalles.




Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code