Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas
Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas

domingo, 25 de marzo de 2018

Ay, ay, ay.. Facebook rastrea tus llamadas y mensajes de texto

Los usuarios de teléfonos Android, Facebook estaba rastreando sus llamadas y mensajes de texto



Los usuarios de Android pueden haber dado involuntariamente a Facebook acceso a datos personales que no se dieron cuenta de que estaban regalando. (AP Photo / Marcio Jose Sanchez)


Marc Bain | Quartz

El alcance de Facebook en los datos de sus usuarios parece seguir creciendo.

Si bien la compañía se ocupa de las consecuencias del escándalo de Cambridge Analytica y de las numerosas inquietudes sobre la privacidad que ha planteado, las personas han estado indagando en sus archivos de datos descargables en la red para tener una idea de cuánto saben exactamente sobre ellos. Varios han llevado a Twitter el hallazgo de que Facebook tiene registros de sus llamadas y mensajes.

Siguiendo con esos tweets, el sitio de noticias tecnológicas Ars Technica descubrió que Facebook ha estado rastreando silenciosamente llamadas y mensajes de texto en teléfonos Android durante años.





Cuando descargas la aplicación de Facebook, solicita acceso a los contactos de tu teléfono, que usa para su algoritmo de recomendación de amigos. Ahora deja en claro que también quiere acceder a registros de llamadas y registros de SMS, pero en el pasado, los usuarios de Android pueden haber dado acceso a Facebook a estos datos sin saberlo, como resultado de la forma en que Android resolvió pedir permiso para los registros de llamadas.

Antes de Android 4.1 (por ejemplo, Jelly Bean), que se lanzó en 2012, cuando un usuario de Android le daba acceso a Facebook a los contactos telefónicos, Facebook también tenía acceso a los datos reales de llamadas y de texto por defecto.

Los permisos en la API de Android fueron modificados posteriormente, pero de acuerdo con Ars Technica, los desarrolladores podían evitar el cambio si escribían aplicaciones en versiones anteriores de la API. En octubre de 2017, Google finalmente dejó de usar la versión 4.0 de la API de Android.

(Los usuarios de iPhone, descansa fácil. Apple nunca ha permitido el acceso silencioso a los datos de llamadas).

En un correo electrónico al sitio, un vocero de Facebook explicó: "La parte más importante de las aplicaciones y servicios que lo ayudan a hacer conexiones es facilitar la búsqueda de las personas con las que desea conectarse. Por lo tanto, la primera vez que inicie sesión en su teléfono a una aplicación de mensajería o social, es una práctica ampliamente utilizada comenzar cargando los contactos de su teléfono ".

No está claro en este momento cuánto tiempo estuvo recopilando Facebook esta información, o exactamente cómo la usó. El problema también puede aplicarse solo a las personas que eligieron Facebook como la aplicación de mensajería predeterminada en su teléfono Android. Facebook aún tiene que aclarar. Nos hemos comunicado con sus portavoces para comentar y actualizaremos esta publicación con cualquier respuesta.

Las respuestas pueden no confortar a aquellos que ya sienten que la red no está manejando su información privada tan cuidadosamente como debería.

Puede que no importe mucho. Facebook tiene tantos usuarios y está tan profundamente arraigada en las vidas de las personas que podría ser demasiado grande para caer en esta etapa, sin mencionar que muchos no han confiado en Facebook durante años, pero aún continúan usándolo.

miércoles, 16 de marzo de 2016

Cómo se leen los libros y un estudio de mercado muy particular

Moneyball para Editores de Libros: Vista detallada cómo leemos
Por Alexandra Alter y Karl Russel - New York Times


El porcentaje de lectores que han terminado de leer cada capítulo de tres libros electrónicos específicos.
Cómo la gente lee una exitosa novela de EE.UU. ... Una no tan exitosa ...... Y una que tuve su marketing recortado.


Un análisis realizado por Jellybooks de cómo los lectores leen libros electrónicos encontró que una vez que la mayoría de la gente hace más allá de los primeros 50 a 100 páginas que suelen terminar el libro. Pero no todo el mundo llega tan lejos.


Andrew Rhomberg quiere ser el Billy Beane del mundo del libro.

El Sr. Beane utilizó la analítica para transformar el béisbol, como es sabido se relata en "Moneyball", un libro de Michael Lewis. Ahora el señor Rhomberg quiere utilizar datos sobre los hábitos de lectura de la gente para remodelar radicalmente la forma adquieren los editores, editar y comercializar libros.

"Todavía no sabemos casi nada acerca de los lectores, sobre todo en las publicaciones comerciales," dijo el Sr. Rhomberg, el fundador de Jellybooks, una empresa de análisis del lector con sede en Londres.

Mientras que los minoristas de libros electrónicos como Amazon, Apple y Barnes & Noble pueden recoger troves de los datos sobre el comportamiento de la lectura de sus clientes, editores y escritores se encuentran todavía en la oscuridad acerca de lo que realmente sucede cuando los lectores tomar un libro. ¿La mayoría de la gente lo devoran en una sola sesión, o hacer la mitad de los lectores renunciar tras el capítulo 2? Las mujeres de más de 50 más probabilidades de terminar el libro que los hombres jóvenes? ¿Qué pasajes que ponen de relieve, y que no se saltan?

La empresa del Sr. Rhomberg está ofreciendo a los editores la tentadora posibilidad de interconexión para ver por encima de los hombros de los lectores. Jellybooks rastrea el comportamiento de la lectura de la misma manera Netflix sabe lo que muestra binge-reloj y Spotify sabe qué canciones son las más escuchadas.

Así es como funciona: la compañía da a libros electrónicos gratuitos a un grupo de lectores, a menudo antes de su publicación. En lugar de pedir a los lectores a escribir una crítica, se les dice que hacer clic en un enlace incluido en el e-libro que va a cargar toda la información que el dispositivo ha registrado. La información muestra Jellybooks cuando la gente lee y por cuánto tiempo, en qué medida se ponen en un libro y la rapidez con que leen, entre otros detalles. Se asemeja a la forma en Amazon y Apple, mirando los datos almacenados en los dispositivos de lectura electrónica y aplicaciones, se pueden ver con qué frecuencia se abren los libros y hasta qué punto en un libro los lectores reciben.

Jellybooks ha ejecutar pruebas en cerca de 200 libros durante siete editores, uno de los principales editores de América, tres editores británicos y tres casas alemanas. La mayoría de los editores no querían ser identificados, para evitar alarmar a sus autores. La compañía normalmente recoge datos de lectura de los grupos de 200 a 600 lectores.

El Sr. Rhomberg dio recientemente un taller en Digital Mundial del Libro, en una conferencia de la publicación en Nueva York, y algunos de sus hallazgos confirmaron los peores temores de los editores y los autores.

En promedio, menos de la mitad de los libros analizados fueron terminados por la mayoría de los lectores. La mayoría de los lectores suelen dar para arriba en un libro en los primeros capítulos. Las mujeres tienden a dejar de fumar después de 50 a 100 páginas, los hombres después de 30 a 50. Sólo el 5 por ciento de los libros Jellybooks probados fueron completados por más del 75 por ciento de los lectores. El sesenta por ciento de libros cayó en un intervalo en el 25 por ciento a 50 por ciento de los lectores de ensayo acabó con ellos. Los libros de negocios tienen tasas de terminación sorprendentemente bajos.

¿Cómo serán los editores utilizan los datos?

En su mayor parte, los editores que están trabajando con Jellybooks no están utilizando los datos de reformar radicalmente los libros para hacerlos más atractivos, a pesar de que podrían hacer que con el tiempo. Pero algunos están utilizando los resultados para dar forma a sus planes de marketing. Por ejemplo, un editor Europea redujo su presupuesto de marketing para un libro que había pagado mucho dinero para adquirir después de enterarse de que el 90 por ciento de los lectores se rindió después de sólo cinco capítulos. Un editor alemán decidió aumentar la publicidad y comercialización en una novela negra debut luego de que datos mostraron que casi el 70 por ciento de los lectores lo terminó.

Los editores también pueden utilizar los datos para aprender qué tipo de lector de un libro apela a, y el mercado en consecuencia. Una de las novelas que Jellybooks probado fue escrito para los adolescentes, pero resultó sorprendentemente popular entre los adultos.

¿Por qué esto puede asustar a los autores?

Los autores son comprensiblemente nervioso acerca de cómo los nuevos conocimientos sobre el comportamiento de lectura pueden influir en las decisiones editoriales de los editores. Supongamos que usted está escribiendo una serie de crimen, y los lectores renunció a mitad de camino a través de la última entrega. Los editores podrían no querer comprar el siguiente. ¿Y si los lectores se saltan alrededor en su libro de no ficción, una forma común de leer no ficción? Un editor puede querer cortar los capítulos personas están saltando, lo que podría borrar contexto útil.

Y, por supuesto, las personas que se inscriban para un servicio de e-libro libre podrían no representar los tipos de lectores que buscar y pagar por una novela negra, o un libro de no ficción sobre un tema que les interesa. Los tamaños de las muestras son relativamente pequeñas. Por lo que los datos del lector podrían no representar las reacciones del público en general.

¿Por qué esto podría ser problemático para los lectores?

Jellybooks usuarios consienten que sus datos de seguimiento a cambio de libros gratuitos y, deben hacer clic en un enlace para enviar esos datos a Jellybooks. "Es absolutamente crítico para que el usuario en el control, o nos enfrentamos a una reacción violenta", dijo Rhomberg en la conferencia.

Pero a medida que la industria del libro se vuelve más sofisticada acerca de cómo medir el comportamiento de la lectura y la práctica se hace más generalizada, problemas de privacidad reales podrían surgir. Algunos grandes editoriales académicas ya realizar un seguimiento de cómo los estudiantes leen sus libros electrónicos, y algunos servicios de suscripción de libros electrónicos han desarrollado la capacidad de medir el compromiso lector. lectores de libros electrónicos regulares no se dan cuenta de que los minoristas digitales están registrando y almacenando los datos. Hace algunos años, California instituyó el "acto lector de privacidad", lo que hizo posible que los organismos encargados de hacer cumplir la ley para reunir información sobre los registros de lectura digital de los consumidores en tiendas de libros electrónicos. Pero la mayoría de los otros estados no han tomado tales medidas.

Sin embargo, tener empresas leyendo por encima de su hombro es probablemente inevitable

Analytics están transformando todos los rincones del mundo de los medios. La edición digital no puede estar muy lejos en la medición del comportamiento del consumidor. Como el Sr. Rhomberg decirlo sin rodeos en Digital Mundial del Libro, las cifras de ventas no son suficientes para medir el éxito de un libro. "Pregúntese," dijo a la audiencia. "¿Estás en el negocio de venta de papel?"

domingo, 14 de febrero de 2016

35 fuentes de datos para iniciar emprendimientos de Big Data

Big Data: 35 Fuentes de datos brillantes y gratuitas para 2016

Forbes




Los datos son ubicuos - pero a veces puede ser difícil ver el bosque por los árboles, por así decirlo. Muchas empresas de diversos tamaños creen que tienen que recoger sus propios datos para ver los beneficios de análisis de grandes volúmenes de datos, pero no es cierto.
Hay cientos (si no miles) de memoria libres disponibles, listos para ser utilizados y analizados por cualquiera que esté dispuesto a buscarlos. A continuación se muestra una lista de 35 de los más interesantes a nivel mundial que he encontrado, pero hay muchos, muchos más en muchos nichos diferentes.
  1. Data.gov http://data.gov The US Government pledged last year to make all government data available freely online. This site is the first stage and acts as a portal to all sorts of amazing information on everything from climate to crime.
  2. US Census Bureau http://www.census.gov/data.html A wealth of information on the lives of US citizens covering population data, geographic data and education.
  3. Socrata is another interesting place to explore government-related data, with some visualisation tools built-in.
  4. European Union Open Data Portal http://open-data.europa.eu/en/data/ As the above, but based on data from European Union institutions.
  5. Data.gov.uk http://data.gov.uk/ Data from the UK Government, including the British National Bibliography – metadata on all UK books and publications since 1950.
  6. Canada Open Data is a pilot project with many government and geospatial datasets.
  7. Datacatalogs.org offers open government data from US, EU, Canada, CKAN, and more.
  8. The CIA World Factbook https://www.cia.gov/library/publications/the-world-factbook/Information on history, population, economy, government, infrastructure and military of 267 countries.
    Big Data Sources for 2016 (source Shutterstock)
  9. Healthdata.gov https://www.healthdata.gov/ 125 years of US healthcare data including claim-level Medicare data, epidemiology and population statistics.
  10. NHS Health and Social Care Information Centre http://www.hscic.gov.uk/home Health data sets from the UK National Health Service.
  11. UNICEF offers statistics on the situation of women and children worldwide.
  12. World Health Organization offers world hunger, health, and disease statistics.
  13. Amazon Web Services public datasets http://aws.amazon.com/datasets Huge resource of public data, including the 1000 Genome Project, an attempt to build the most comprehensive database of human genetic information and NASA ’s database of satellite imagery of Earth.
  14. Facebook FB +0.05% Graph https://developers.facebook.com/docs/graph-api Although much of the information on users’ Facebook profile is private, a lot isn’t – Facebook provide the Graph API as a way of querying the huge amount of information that its users are happy to share with the world (or can’t hide because they haven’t worked out how the privacy settings work).
  15. Face.com: A fascinating tool for facial recognition data.
  16. UCLA makes some of the data from its courses public.
  17. Data Market is a place to check out  data related to economics, healthcare, food and agriculture, and the automotive industry.
  18. Google Public data explorer includes data from world development indicators, OECD, and human development indicators, mostly related to economics data and the world.
  19. Junar is a data scraping service that also includes data feeds.
  20. Buzzdata is a social data sharing service that allows you to upload your own data and connect with others who are uploading their data.
  21. Gapminder http://www.gapminder.org/data/ Compilation of data from sources including the World Health Organization and World Bank covering economic, medical and social statistics from around the world.
  22. Google GOOGL +0.07% Trends http://www.google.com/trends/explore Statistics on search volume (as a proportion of total search) for any given term, since 2004.
  23. Google Finance https://www.google.com/finance 40 years’ worth of stock market data, updated in real time.
  24. Google Books Ngrams http://storage.googleapis.com/books/ngrams/books/datasetsv2.htmlSearch and analyze the full text of any of the millions of books digitised as part of the Google Books project.
  25. National Climatic Data Center http://www.ncdc.noaa.gov/data-access/quick-links#loc-climHuge collection of environmental, meteorological and climate data sets from the US National Climatic Data Center. The world’s largest archive of weather data.
  26. DBPedia http://wiki.dbpedia.org Wikipedia is comprised of millions of pieces of data, structured and unstructured on every subject under the sun. DBPedia is an ambitious project to catalogue and create a public, freely distributable database allowing anyone to analyze this data.
  27. Topsy http://topsy.com/ Free, comprehensive social media data is hard to come by – after all their data is what generates profits for the big players (Facebook, Twitter TWTR +10.97% etc) so they don’t want to give it away. However Topsy provides a searchable database of public tweets going back to 2006 as well as several tools to analyze the conversations.
  28. Likebutton http://likebutton.com/ Mines Facebook’s public data – globally and from your own network – to give an overview of what people “Like” at the moment.
  29. New York Times http://developer.nytimes.com/docs Searchable, indexed archive of news articles going back to 1851.
  30. Freebase http://www.freebase.com/ A community-compiled database of structured data about people, places and things, with over 45 million entries.
  31. Million Song Data Set http://aws.amazon.com/datasets/6468931156960467 Metadata on over a million songs and pieces of music. Part of Amazon Web Services.
  32. UCI Machine Learning Repository is a dataset specifically pre-processed for machine learning.
  33. Financial Data Finder at OSU offers a large catalog of financial data sets.
  34. Pew Research Center offers its raw data from its fascinating research into American life.
  35. The BROAD Institute offers a number of cancer-related datasets.
Las empresas que pueden no tener los recursos para comenzar a recopilar sus propios datos de inmediato puede acceder a estos datos públicamente disponibles y comenzar a hacer las preguntas correctas y obtener respuestas de inmediato con visión de futuro.
¿Cómo le puso públicamente los datos disponibles para utilizar en su negocio o nicho? Yo estaría interesado en escuchar sus pensamientos e ideas en los comentarios a continuación.


jueves, 6 de agosto de 2015

Los cientistas de Big Data dan información que incomoda a los CEOs

Los científicos de datos a los CEOs: No se puede manejar la verdad
BILL FRANKS, TERADATA



Crédito de la imagen: wavebreakmedia / Shutterstock


Demasiadas iniciativas de datos grandes fallan porque las empresas, de arriba abajo, no están comprometidos con la verdad en la analítica. Dejame explicar.

En enero de 2015, el Economist Intelligence Unit (EIU) y Teradata (información completa: también mi empleador) dio a conocer los resultados de un importante estudio tuvo como objetivo identificar cómo las empresas que tienen éxito en ser impulsado por los datos difieren de los que no lo son.

Entre sus muchos hallazgos, había algunos particularmente preocupante, resultados "código rojo" que revelaron CEOs parecen tener una visión más optimista de análisis esfuerzos de una empresa que directores, gerentes, analistas, científicos y de datos. Por ejemplo, EIU encontró que los directores generales son más propensos a pensar que los empleados extraen ideas relevantes a partir de datos de la compañía - el 38 por ciento de ellos sostienen esta creencia, en comparación con el 24 por ciento de todos los encuestados y sólo el 19 por ciento de los vicepresidentes, vicepresidentes, y directores. Del mismo modo, el 43 por ciento de los CEOs piensan datos relevantes son capturados y puestos a disposición en tiempo real, en comparación con el 29 por ciento de todos los encuestados.

Así que ¿por qué hay una desconexión tal? Resulta que la respuesta es mucho más humano que el tamaño de las arcas de datos de una empresa, o de la tecnología de almacenado para analizarlo. Iniciativas de datos grandes se caen a los pies de los prejuicios, malos supuestos y el fracaso, o miedo, de dejar que los datos hablan por sí mismo. Como ideas hacen su camino hasta la escalera corporativa, desde el científico de datos para el director general, la verdad en la analítica se pierde en el camino. Y esto nos lleva a un efecto acumulativo de consecuencias no deseadas.

Comunicar los conocido-desconocido a su CEO

Tome la idea de los riesgos conocidos, por ejemplo. En la analítica, que siempre hay que hacer algunas suposiciones porque los datos casi nunca se pinta un cuadro completo. Por lo tanto, usted tiene que identificar y clasificar los riesgos para entender lo que puede ocurrir cuando las hipótesis van mal. En algunos casos, los riesgos no están vinculados a grandes consecuencias. Pero, en otros casos, puede ser devastadora.

Mira la caída de la bolsa de 2008. Una gran cantidad de personas que hizo una suposición simple y lógico que los precios inmobiliarios solamente subirían. Pero la mayoría de los analistas no experimentan suficiente con lo que sucedería si los precios realmente cayeron. Bueno, ahora que sabemos lo que pasaría. Era casi una calamidad global. Las personas que invierten en la burbuja antes de la crisis de vivienda estaban trabajando en la suposición de que fue muy defectuoso en muchos niveles. Y muy pocas personas consideran o se dieron cuenta, el riesgo hasta que fue demasiado tarde.

Lo mismo ocurre, en general, a escalas más pequeñas, en las empresas. El CEO no tiene una visión clara de los riesgos. Corresponde a los científicos de datos, analistas de negocio y sus gerentes para que el CEO muy consciente del riesgo en suposiciones. El CEO tiene que entender que hay una crítica, nivel 1 de riesgo en supuestos - en el ejemplo de la vivienda, si los precios iban a bajar, todo esto se desmorona. Aunque es poco probable que el riesgo de, al menos, que está en la mesa. Muchas personas se sienten incómodas discutiendo esos negativos con altos ejecutivos y muchos altos ejecutivos no les gusta oírlo. Pero para tener éxito, todo el mundo debe superar ese obstáculo.

Pasar de la cultura del miedo de la Verdad

Luego está el miedo a la verdad, con un poco de sesgo cognitivo tirado. Por ejemplo, es muy común que la gente de ventas, cuando se le preguntó por su pronóstico, incluso armados con datos sobre el desempeño histórico y la tubería actual, por lo general no están seguros si van a golpear su número. Pero, por lo general, te dirán el vicepresidente de ventas van a golpear sus previsiones - a menos que, por supuesto, una señorita es muy evidente. Comparten la información que se espera que compartir, y retener cualquier reconocimiento de que los números son maleables.

El problema surge en el agregado: El VP consigue un panorama color de rosa de cinco personas de ventas en su equipo, a pesar de que todos ellos tienen serias dudas, por lo que pone esa suposición y los datos rollos de hasta el CEO o CFO. En realidad, la métrica se basa en una gran cantidad de dudas. La verdad está enterrado bajo el temor de perder el empleo y la expectativa cultural que se cumplirá la meta. El fracaso no es una opción. Sin embargo, si bien es probable que varias de las personas de ventas se encargará de golpear su número, la posibilidad de que toda voluntad es pequeña. Esto hace que las cifras VPs aún más realista que las estimaciones iniciales.

Entonces, ¿qué sucede? Todo el mundo se sorprende cuando la empresa pierde su pronóstico. Este es un ejemplo de donde la gente sugarcoat un poco en el extremo inferior, y el efecto acumulativo conduce al negocio pronosticar correctamente los resultados de toda la compañía.

No subestime el futuro de la Verdad

Otro problema común es subestimar, o simplemente no tener en cuenta, el nivel de confianza en los análisis resulta que se está alimentando el CEO. Tal vez nos sentimos cómodos con los datos y los supuestos, hemos pedido las preguntas correctas y que hemos tomado los riesgos en la consideración, pero no hemos evaluado el nivel de confianza de nuestras predicciones. Este se introduce en las técnicas clásicas de evaluación del modelo de análisis. Es la previsión más-o-menos 1 por ciento o 20 por ciento? Si es crítico para aumentar las ventas en un 5 por ciento y el modelo predice un 10 por ciento de crecimiento de ventas dentro de más-o-menos del 5 por ciento, entonces estamos probablemente muy bien. Pero si el modelo predice un 10 por ciento el crecimiento de ventas de más o menos 15 por ciento, entonces podríamos estar cerrando sus puertas a finales de año si no tenemos cuidado.

Por lo tanto, ¿que debe cambiar?

La cultura en torno a la forma de ver los datos y las decisiones basadas en datos se hacen tiene que cambiar. Si un científico de datos trae todos los supuestos y riesgos de una conversación de sala de juntas sólo para ser masticado y escupido a cabo, la próxima vez que entra en la sala de juntas que, él estará seguro de ocultar las verdades negativas. Pero, cuando la cultura fomenta la curiosidad y aceptación imparcial de la historia dice que los datos, a continuación, los que guardan los datos son libres de compartir lo que saben y no habrá, todos los datos, y no sólo el miedo de señalar a los datos bits de color de rosa. El CEO debe tomar la responsabilidad de hacer de forma activa sobre los riesgos y promover una cultura de la transparencia. Pero lo mismo ocurre con todos los demás. Los miembros del equipo a todos los niveles deben asumir la responsabilidad de la celebración de la verdad en los datos y mantener una total transparencia al comunicar en la jerarquía corporativa.

Los ejecutivos tienen que pedir a su gente a hacer esto la debida diligencia a medida que pasan los resultados, y que tienen que hacer las preguntas hacia abajo por lo que se convierte en una conversación en torno a los datos, no simplemente un tablero de instrumentos de un solo lado, o presentación. En algunos casos, puede que no haya ningún riesgo material, pero el hecho de que de manera inteligente llegado a esa conclusión demuestra que usted tiene la disciplina para hacer la evaluación. Como director general o alto directivo, usted no puede asumir todos hicieron un gran trabajo de validación de todos los riesgos potenciales e hizo todas las suposiciones correctas. Usted tiene que preguntarse por la verdad y estar dispuesto a manejar la situación.

Venture Beat

domingo, 12 de julio de 2015

Modelos de precios para productos de Hadoop

Modelos de precios para los productos de Hadoop


Una mirada a los diferentes modelos de precios adoptadas por los vendedores en el ecosistema Hadoop. Mientras que los modelos de precios están evolucionando en este mercado rápido y dinámico, que se enumeran a continuación son algunas de las principales variaciones utilizadas por empresas en la esfera.

1) por nodo:

Entre el modelo más común, el mecanismo de fijación de precios basada nodo utiliza reglas personalizadas para la determinación de precios por nodo. Esto puede ser tan sencillo como la fijación de precios por nodo nombre y nodo de datos o podría tener variantes complejas de fijación de precios basada en el número de procesadores de núcleo utilizados por los nodos del clúster o por licencia de usuario en el caso de las aplicaciones.

2) Por TB:

El mecanismo de fijación de precios en base de datos cobra al cliente por el costo de licencia por TB de datos. Este modelo lo general representa datos no replicados para el cálculo de costes.

3) Costo único de suscripción de apoyo:

En este modelo, el vendedor prefiere regalar software de forma gratuita pero cobra al cliente por el apoyo de suscripción en un número determinado de nodos. Los horarios de apoyo y nivel de apoyo determinan aún más el costo de la suscripción.

4) Acuerdo global - hardware, software y servicios

Además del hardware de los productos básicos, los vendedores han construido equipos y aparatos que aprovechan al máximo Hadoop especializada. Ofertas de precios se elaboran involucra una combinación de hardware, software y servicios para el despliegue y mantenimiento.

5) Freemium:

El modelo freemium atrae al cliente con el uso libre hasta un límite umbral. El límite, por ejemplo, puede ser en términos de datos por día o el número de licencias de usuario o número de nodos. Más allá del umbral, el cliente se carga sobre las tasas especificadas.

6) Costos de conectores:

Como los sistemas actuales han comenzado a integrar con HDFS, los vendedores también están tratando de hacer algo de dinero mediante la venta de conectores especializados. En algunos casos, el número de conectores es limitado para el uso libre con suscripción de pago para el número más amplio de conectores.

7) la nube:

Dentro del despliegue en la nube, dos modelos son más comúnmente populares:
- Pago por uso: que implica costos en función del uso acusado periódicamente a la cuenta de facturación de crédito o.
- Media anual o suscripción anual: que implica paquete especial por más tiempo el compromiso de suscripción de duración.
Además, los modelos de nubes utilizan modelos de carga como una combinación de uno o más factores:
* Coste por nodo
* Coste MapReduce
* El uso del Software por hora
* Coste de almacenamiento
* Coste de transferencia de datos
* Costo de Procesamiento

Durante el año 2014, se espera una mayor presión sobre el modelo de licencia mientras que los modelos freemium o paguemos por modelos de uso para tomar más vuelo. Habrá presión de los precios a la baja en todos los proveedores que podrían afectar sus márgenes y el interés en los productos de consumo masivo. Más interés eventualmente crecer hacia aplicaciones y servicios especializados para los clientes que podría conducir a mayores márgenes de beneficio.

HadoopSphere

lunes, 6 de julio de 2015

Big Data: 10 startups para seguir (2/2)





10 Emprendimientos interesantes de Big Data para prestarles atención



Las Startups de Big Data están construyendo productos viables que se dirigen a los puntos de dolor del mundo real, y la mayoría de estos nuevas empresas de Big Data están bien financiadas con equipos de gestión sólidos. Aquí hay 10 nuevas empresas de Big Data para ver.
     
Por Jeff Vance - CIO
Parte 2


6. ScaleArc



Lo que hacen: Proveer software de infraestructura de base de datos que simplifica la forma en entornos de bases de datos se implementan y administran.


Sede: Santa Clara, California.

CEO: Varun Singh. Singh previamente ayudó a crear dos de las mejores marcas de tecnología en línea de la India, TechTree y Tech2. También alberga actualmente muestra de tecnología en la CNBC, TV18, CNN-IBN y ET Ahora.

Fundada: 2009

Financiación: ScaleArc está respaldado por 18 millones de dólares de Accel Partners, el Trinity Ventures, Nexus Venture Partners e inversores ángel.

Por qué están en esta lista: ScaleArc terminó sexto en Startup50.com votación. Ellos han recaudado dinero VC grave y tienen una larga serie de victorias de los clientes.

En Interop el mes pasado Singh señaló que el crecimiento de las aplicaciones en línea y móviles es el esfuerzo infraestructuras de bases de datos tradicionales. Para las compañías que hacen negocios en línea, la disponibilidad y rendimiento de las aplicaciones son determinantes clave de la experiencia del cliente y, en última instancia, los ingresos.

Sin embargo, las empresas luchan con el complejo desafío de crecer su infraestructura de base de datos para manejar el aumento de la demanda, sin afectar negativamente la experiencia del cliente, o el consumo de recursos que pueden ser mejor utilizados en otras partes. Entornos tradicionales SQL están empantanados por un volumen cada vez mayor de consultas de bases de datos a partir de un número creciente de aplicaciones que necesitan acceso a datos estructurados - que conduce a rendimiento de las aplicaciones y del sistema interrupciones pobres.

Y el problema es aún peor para las aplicaciones móviles, como el rendimiento toma un éxito aún mayor con el aumento de la latencia.

Singh sostiene que las empresas necesitan una manera de optimizar el tráfico consulta SQL sin grandes modificaciones a las aplicaciones o bases de datos existentes. Para mejorar el rendimiento, que necesitan para descargar las bases de datos existentes sin invertir en nueva infraestructura costosa. Por último, necesitan una visibilidad completa de tráfico de SQL para solucionar de manera más eficiente y resolver los problemas antes de que se conviertan en problemas mayores que los ingresos impacto.


El producto estrella de ScaleArc, el BID, es un software que se inserta de forma transparente entre las aplicaciones y bases de datos, sin necesidad de modificaciones a las aplicaciones o bases de datos. ScaleArc afirma que puede ser desplegado en unos 15 minutos. Entonces, los usuarios obtienen visibilidad sobre todo el tráfico de la base de datos con análisis de SQL en tiempo real granulares.

BID ofrece escalabilidad inmediata y una mayor disponibilidad de bases de datos con clustering dinámico, equilibrio de carga y capacidades sharding, y proporciona un motor de almacenamiento en caché híbrido SQL-NoSQL transparente, lo que permite a cualquier aplicación utilizar una caché NoSQL y sin ningún cambio de código o controladores.

Mercado Paisaje Potencial y competitiva: ScaleArc estima que este espacio de mercado vale más de $ 2 mil millones (que son mucho más conservadores que la mayoría de los analistas).

Los competidores incluyen ScaleBase y ParElastic.

Los clientes actuales incluyen Demand Media, Disney UTV, Kixeye, Sazze (dealspl.us), Flipkart, Decision Tiempo Tecnologías y otros.

7. SiSense



Lo que hacen: Proporcionar análisis del Big Datos plataformas.

Sede: Redwood City, California, con un Centro de I + D en Tel Aviv, Israel.

CEO: Amit Bendov. Anteriormente fue director de marketing de Panaya y Vicepresidente Senior de Marketing Global en ClickSoftware.

Fundada: 2010 (que fueron técnicamente fundada en 2004, pero eran en realidad un proyecto paralelo para los cinco fundadores hasta 2010, y su lanzamiento oficial fue 2012)

Financiación: En abril, SiSense cerrado una ronda Serie B $ 10 millones de financiación liderada por Battery Ventures con la participación de Opus capital y Genesis Partners. A Series $ 4.000.000 Una ronda fue asegurado en 2010.

Por qué están en esta lista: SiSense terminó segundo en la votación Startup50.com, cuenta con respaldo de capital riesgo sólida y un buen tamaño lista de clientes.

Según SiSense, tradicionales soluciones de análisis de datos grandes son como acorazados: Son caros, complicados de operar, y en realidad son excesivos para la mayoría de las empresas, que simplemente no necesitan mucho procesamiento. El negocio típico no necesita analizar petabytes de datos. Más bien, ellos estarían felices ganando puntos de vista sobre terabytes de datos, pero eso es demasiado caros o los obliga a depender de soluciones en-memoria, que puede escalar a más de manejar grandes cantidades de datos.

SiSense Prisma está construido para ofrecer gran tecnología de análisis de datos para empresas de todos los tamaños. Sin codificación o scripting requerido, los analistas de negocio pueden analizar los datos en sí, sin tener que dibujar TI o científicos de datos en el proceso. Reclamaciones SiSense que Prism permite a los usuarios no técnicos para analizar 100 veces más datos que los actuales soluciones de análisis en memoria, y lo hace 10 veces más rápido. No hay necesidad de establecer sistemas de almacenamiento de datos complejos o cubos OLAP.

Prisma es impulsado por la tecnología Elasticube de SiSense, que cuenta con una tienda de columnas de datos, fuerte compresión de datos, el procesamiento en paralelo, y la optimización de consultas avanzada para ofrecer la potencia de procesamiento analítico previamente disponible sólo con soluciones de alta gama.

Mercado Paisaje Potencial y competitiva: Wikibon cree que el mercado de Big Data superará 47 mil millones dólares por 2017. competidores SiSense incluir Tableau, QlikView y SAP HANA.

Los clientes incluyen a la NASA, ESPN, Target, eBay, Fiverr, Online Commerce Group, Plastic Jungle Vacaciones Magallanes.


8. Skytree



Lo que hacen: Desarrollar plataformas basadas máquina de aprendizaje para la analítica Big Data.

Sede: San José, California.

CEO: Martin Hack, quien anteriormente se desempeñó como director de Marketing de Tecnologías GreenBorder (adquirida por Google) y como gerente de línea de productos de SonicWALL.

Fundada: 2012

Financiación: Skytree simplemente asegurado (abril de 2013) $ 18 millones en la Serie A de financiación. US Venture Partners encabezó la ronda y se le unió un nuevo sindicato de inversionistas que incluye UPS y Scott McNealy, co-fundador y ex CEO de Sun y Presidente de Wayin. Inversores adicionales incluyen Javelin Venture Partners y Osage Socios Universitarios. Hasta la fecha, Skytree ha recaudado un total de $ 19,6 millones.

Por qué están en esta lista: Skytree terminó en el top 10 en la votación Startup50.com y ya ha reunido a grandes nombres de clientes.

Según Skytree, analítica avanzada, contrariamente a la creencia popular, "no es una picadora de carne en la que se puede volcar los datos en un extremo y esperar pepitas de sabiduría para salir del otro extremo."

Skytree ha creado una plataforma de uso general que permite a los científicos de datos para centrarse en lo más importante, que Skytree dice es el tiempo medio de Insights (MTI), y centrarse en lo que son buenos: crear y desplegar modelos analíticos en lugar de algoritmos de codificación. Skytree se entrega como una aplicación dentro de un centro de datos que puede ser utilizado por muchos, en contraposición al modelo tradicional entrega: una aplicación individual utilizado en una sola PC.

Skytree argumenta que el aprendizaje de la máquina es la llave que abre un tesoro entero de las predicciones, recomendaciones de los clientes, y la anomalía detecciones que la mayoría de la gente ni siquiera saben son posibles. Aprendizaje automático resuelve ese problema dando rienda suelta a los algoritmos de cantidades masivas de datos y encontrar patrones que los científicos de datos ni siquiera sabía que existía.

Panorama competitivo: Skytree dice que la mayor parte de la competencia se encuentran con es o bien de soluciones de liar o de legado plataformas de BI de la talla de SAS e IBM, que los clientes potenciales pueden simplemente optar por seguir con.

Los clientes incluyen a eHarmony, SETI, USGA y Adconion Medios.


9. SumAll



Lo que hacen: Proporcionar herramientas de análisis de datos se centró en la entrega de marketing, ventas y puntos de vista de los medios sociales.

Sede: Nueva York, N. Y.

CEO: Dane Atkinson. Anteriormente fue director general de Squarespace.

Fundada: 2011

Financiación: SumAll está respaldado por dos rondas de financiamiento que el total de 7,5 millones de dólares Battery Ventures, Wellington Partners, Matrix y General de Catalyst.

Por qué están en esta lista: SumAll terminó tercero en la votación Startup50.com y CEO Dane Atkinson ha visto varias nuevas empresas a través de salidas exitosas.

El producto de SumAll es una herramienta de análisis que ayuda a las empresas ganan más dinero mediante el uso de sus propios datos. SumAll intenta romper varios silos de datos, desde los relacionados con aplicaciones de legado a los que participan en las redes sociales.

SumAll trae todos los ingresos dispares, el pago, los datos de tráfico sociales y orgánicos en un solo lugar para que los usuarios pueden ver las interacciones a través de su negocio y entender si una campaña social es dirigir el tráfico que está convirtiendo al tráfico. SumAll puede ayudar a las empresas averiguar, por ejemplo, el valor de un "me gusta" en Facebook o el valor de una visita de sitio web.

Panorama competitivo: Estos no son necesariamente las comparaciones de cabeza a cabeza, pero SumAll competirán con Hootsuite, ágil, GoodData y KISSmetrics.

Los clientes incluyen Siemens, Diamond Velas y Urbio.

10. Xplenty



Lo que hacen: Proporcionar Hadoop como un servicio para el análisis de Big Data.

Sede: Tel Aviv, Israel

CEO: Yaniv Mor. Antes de fundar Xplenty, Mor logró la práctica NSW Services de SQL en el Red Rock Consulting.

Fundada: 2012

Financiación: Están respaldados por una cantidad no revelada de financiación inicial levantado de Magma Venture Capital en junio de 2012.

Por qué están en esta lista: Hadoop está siendo promocionado a la Luna en estos días, pero el desarrollo, implementación y mantenimiento de Hadoop requieren un conjunto de habilidades muy específicas y arcano. El objetivo de Xplenty es eliminar su necesidad de aprender nada de eso.

Xplenty proporciona una plataforma de integración de datos que procesa grandes volúmenes de datos. Una interfaz de arrastrar y soltar elimina la necesidad de escribir scripts complejos o código de ningún tipo.

Xplenty está basado en la nube, por lo que no hay ninguna instalación de cualquier cosa en los servidores de un usuario final, y no hay software para descargar en las estaciones de trabajo. Con la configuración del servidor automatizado, los usuarios simplemente apuntan a un origen de datos, configurar las tareas de transformación de datos y le dicen a la plataforma donde a la derecha los resultados. La plataforma de Xplenty utiliza terminología de SQL, así que para los analistas de datos, la curva de aprendizaje debe ser mínimo.

Mercado Paisaje Potencial y competitivo: Según TechNavio, el mercado de Hadoop-as-a-Service superará los $ 19 mil millones para el año 2016. El principal competidor de Xplenty es Amazon Elastic Mapa / Reducir (EMR). Otros competidores Hadoop-as-a-Service incluyen Mortero de datos, Qubole, y recientemente Microsoft con Hadoop en Azure. Rackspace está a punto de lanzar su propia Hadoop-as-a-Service oferta basada en la distribución Hortonworks.

domingo, 5 de julio de 2015

Big Data: 10 startups para seguir (1/2)




10 Emprendimientos interesantes de Big Data para prestarles atención



Las Startups de Big Data están construyendo productos viables que se dirigen a los puntos de dolor del mundo real, y la mayoría de estos nuevas empresas de Big Data están bien financiadas con equipos de gestión sólidos. Aquí hay 10 nuevas empresas de Big Data para ver.
       
Por Jeff Vance - CIO
Parte 1


El mercado de Big Data se está calentando, ya diferencia de algunas tendencias sobrevalorado (medios de comunicación social), es bastante fácil de determinar el ROI con estas herramientas.

Cuando ponemos a cabo las llamadas para los candidatos a través de la the Story Source Newsletter, HARO, Twitter y otros canales, hemos recibido más de 100 recomendaciones. Por lo general, cuando lleguemos a que muchos, una buena parte de ellos se puede descartar de plano. Algunos son claramente proyectos de ciencia; otros tienen financiación cero, sin pedigrí de gestión y una propuesta de valor dudoso, mientras que unos pocos son claramente el producto de las alucinaciones de la malaria.

No es así en esta ocasión. Muy pocas de las nuevas empresas que vimos eran tiros largos estrafalarios. La mayoría eran ideas decentes, respaldadas por dinero real VC y equipos de gestión experimentados.

Recientemente, hemos cambiado cómo se seleccionan los últimos 10 nuevas empresas para ver. En primer lugar, una gran lista de nominados en Startup50.com se han compilado. (Eche un vistazo a la lista de los 42 nominados de grandes datos aquí.) Entonces, dejamos que los lectores voten por sus favoritos.

Se introdujo esta ocasión otra arruga. Startups dejaron fuera de la lista grande puede desafiar nuevas empresas específicas en él, tratando de robar su lugar lejos. Si se considera el reto de tener mérito, vamos a establecer una votación por separado. Sqrrl y Datastax tanto lucharon su camino en la lista de nominados a través de retos.

En total, más de 11.000 personas votaron por sus favoritos startups Big Data, con Cloudant ganar, SiSense viene en un cercano segundo y SumAll terminar una fuerte tercero.

Esta vez nos sopesamos la votación en mayor medida de lo normal. Por lo general, la votación se le da un peso de alrededor de 30 por ciento, y luego nos dirigimos a otros factores, como la financiación, el pedigrí del equipo de gestión y la viabilidad del plan de trabajo de la puesta en marcha.

Sin embargo, toda la lista de 42 nominados Big Data (además de varios otros que inicialmente escapó nuestro aviso) es ridículamente fuerte.

Tome Xplenty, por ejemplo. Terminaron octavos en la votación, pero consideramos descartarlos porque el emprendimiento tiene tan sólo un año de edad, no ha planteado una importante financiación y todavía no tiene clientes de grandes nombres. Todas las marcas en su contra.

Equilibrando los negativos es el hecho de que el voto es importante, y las rondas como esta son las mejores si incluyen una mezcla de los mejores arranques en camino de alcanzar su potencial, junto con algunas nuevas empresas que son más o menos todo el potencial en este momento.

A medida que empezamos a mirar posibles sustitutos, nos dimos cuenta de que ninguno de los 25 principales o menos votados podría hacer argumentos sólidos para su inclusión.

Francamente, podríamos haber puesto a Platfora, Cloudmeter, CloudPhysics, Sqrrl, RainStor, Rocket Fuel o varios otros en el lugar de Xplenty. Startups de grandes datos, a diferencia de otros espacios, tienen sustancia real para ellos. Están construyendo productos viables que se dirigen a los puntos de dolor del mundo real (puntos de dolor empresas están dispuestas a pagar para resolver - en la actualidad), y la mayoría de las nuevas empresas de Big Data están bien financiados, con los equipos de gestión sólidos. Es sólo un espacio muy fuerte.

Así, Xplenty se atascó. Sí, son más potencial en bruto de asesino de gigantes en esta etapa, pero su servicio de codificación libre de Hadoop Big Data es simple, fácil de usar y asequible, incluso para el mercado medio.

Ahora es tu turno. Vota por tus favoritos startups Big Data, y nosotros clasificamos los 10 y coronamos un ganador absoluto.


1. Cloudant



Qué hacen: Proporcionar bases de datos-as-a-Service.

Sede: Boston, Massachusetts.

CEO: Derek Schoettle. Antes Cloudant, fue vicepresidente de Ventas de CME en Vertica Systems, que fue adquirida por HP en 2011.

Fundada: 2008

Financiación: Cloudant acaba de cerrar una segunda ronda de financiamiento de US $ 12 millones en mayo. Devonshire Investors, Rackspace Hosting y Toba capital encabezó la ronda, que incluyó la participación de los inversores actuales Avalon Ventures, In-Q-Tel, y Samsung Venture Investment Corporation. Cloudant ha recaudado $ 16 millones a la fecha.

¿Por qué están en esta lista?: Terminaron primeros en la votación de Startup50.com, apenas aumentando su financiación a $ 16 millones y ahora reclamando más de 12.000 clientes. Según Cloudant, el problema con las bases de datos es que si una aplicación tiene éxito, las organizaciones a menudo los superan. Esto se conoce comúnmente como el "App Store Effect". Incluso bases de datos distribuidas "scale-out" y los cachés están limitados por el hardware del clúster y esquemas de particionamiento.

El Database-as-a-Service (DBaaS) de Cloudant es un servicio gestionado especialmente diseñado para la Web basada en datos y desarrolladores de aplicaciones móviles que quieren manejar cargas de trabajo de Big Data sin tener que lidiar con el diseño de la base de datos distribuida, sharding, partición, copia de seguridad , etc. Cloudant funciona mediante el almacenamiento, el análisis y la difusión de datos de la aplicación a través de una red global de centros de datos, la entrega de baja latencia, el rendimiento de la capa de datos de alta disponibilidad, y empujando datos dinámicos más cerca del borde.

Mercado Potencial y Panorama competitivo: Según Mercado Media Research, se espera que el mercado de NoSQL en todo el mundo para llegar a $ 3.4 mil millones en 2018, con una tasa de crecimiento anual compuesta (CAGR) del 21 por ciento entre 2013 y 2018. Se espera que el mercado de NoSQL para generar $ 14 millones de dólares en ingresos durante el período 2013-2018.

Cloudant es más bien una posición única en el momento. Mientras que Oracle y MySQL han estado disponibles en AWS, no hay que muchas ofrendas NoSQL DBaaS por ahí. Joyent rodó uno a principios de este año, y DynamoDB de AWS está en beta.

Cloudant reclama una base de clientes de más de 12.000 clientes multi-tenant, incluyendo Samsung, DHL, Monsanto, Salesforce.com (Heroku), Sourcefire, Head Games Hot, Flurry, AppAdvice y LiveMocha.

2. Cloudera



Qué hacen: Proporcionar una plataforma de grandes volúmenes de datos a base de Hadoop.
Sede: Palo Alto, California,

CEO: Mike Olson, quien fue anteriormente consejero delegado de Sleepycat Software, una compañía de base de datos integrada que fue adquirida por Oracle en 2006. Después de la adquisición, Olson pasó dos años en Oracle como vicepresidente de Tecnologías Integradas.

Fundada: 2008

Financiación: Cloudera ha recaudado $ 140 millones en capital de riesgo hasta la fecha. Sus inversores incluyen Accel Partners Greylock Partners, Ignition Partners, In-Q-Tel y Meritech Capital Partners.

Por qué están en esta lista: Big Data es caliente, y Cloudera fue pionero en el espacio de grandes volúmenes de datos a base de Hadoop. Por otra parte, están sentados sobre una pila gigante de VC efectivo y tener un equipo de gestión de primera categoría.

Francamente, pensamos mucho sobre dejar a Cloudera afuera de esta lista - no porque ellos no pertenezcan, sino debido a que han estado haciendo bastante bien durante el tiempo suficiente que no estamos seguros de que la etiqueta "emprendimiento"realmente se le ajuste más.

Sin embargo, lo hicieron bien en la votación de Startup50.com (acabado en el top 10), y que prácticamente resultó el caso de negocios para Hadoop. Cloudera permite a los usuarios consultar todos sus datos estructurados y no estructurados para obtener una visión más allá de lo que está disponible a partir de bases de datos relacionales. Cloudera ha lanzado recientemente Impala, un nuevo motor de consulta interactiva de código abierto para Hadoop que permite consulta interactiva sobre los conjuntos de datos masivos en tiempo real.

Mercado Paisaje Potencial y competitiva: Gartner pronostica que Big Data impulsará unos $ 34 mil millones en el gasto en TI este año, aumentando a $ 232 mil millones en 2016. Gartner también predice que para el 2015 el 65 por ciento de las aplicaciones analíticas empaquetadas con "analítica avanzada" incluirá incrustado Hadoop.

Cloudera claramente tiene la ventaja haber movido primero, pero los competidores incluyen EMC, Pivotal, Hortonworks y MapR. Intel acaba de entrar en la refriega, también. Los clientes incluyen a CBS Interactive, eBay, Expedia, Monsanto y Samsung.


3. LucidWorks



Qué hacen: Proporcionar herramientas de búsqueda empresarial para ayudar a navegar Big Data.
Sede: Redwood City, California.

CEO: Paul Doscher. Antes de LucidWorks, fue CEO de Exalead, una compañía de búsqueda empresarial. Ya en 2003, se convirtió en director general y uno de los principales fundadores de JasperSoft, un proveedor de plataforma de inteligencia de negocio de código abierto, y más tarde se desempeñó como vicepresidente ejecutivo de operaciones de campo en todo el mundo para VMware.

Fundada: 2008

Financiación: La financiación total de riesgo es de $ 16 millones (de Granite Ventures, Walden International, In-Q-Tel y Shasta Ventures,).

Por qué están en esta lista: las organizaciones de TI están empezando a recoger órdenes de magnitud más datos de los que se reunieron hace unos pocos años. La recopilación de datos es una cosa; Sin embargo, haciendo uso real de la misma es otra. La búsqueda empresarial claramente tiene un papel que desempeñar en términos de hacer grandes datos accesibles. El reto es hacerlo de una manera que otras aplicaciones pueden utilizar.

LucidWorks Search está diseñado para ayudar a los desarrolladores a crear aplicaciones de búsqueda, escalables y rentables de alta seguridad, al tiempo que proporciona una forma sencilla y completa para acceder a las tecnologías de búsqueda de código abierto.

LucidWorks Big Data es una plataforma de desarrollo de aplicaciones que integra capacidades de búsqueda en la capa fundacional de las implementaciones de Big Data. El producto está construido sobre una base de proyectos clave de código abierto Apache y permite a las organizaciones a descubrir rápidamente, acceso y evaluación de grandes volúmenes de datos estructurados y no estructurados. LucidWorks Big Data y LucidWorks Buscar trabajo mano a mano para acelerar y simplificar la construcción de aplicaciones de búsqueda altamente seguras, escalables y rentables.

Mercado Potencial y Panorama competitivo: Según Wikibon, el total del mercado de Big Data alcanzó $ 11.4 mil millones en 2012, por delante de 2011 Pronóstico del Wikibon. Wikibon cree que el mercado alcanzará los $ 18.1 mil millones en 2013, un crecimiento anual del 61 por ciento. Esto lo pone en camino de superar los $ 47 mil millones en 2017. Eso se traduce en una tasa anual compuesta del 31 por ciento de crecimiento en el quinquenio 2012-2017.

Panorama competitivo: Los competidores incluyen Endeca, Autonomía y Elasticsearch.

ADP es un cliente nombrado.

4. MAPR Tecnologies




Qué hacen: Proporcionar una plataforma Hadoop / NoSQL Big Data.

Sede: San José, California.

CEO: John Schroeder, quien anteriormente se desempeñó como director general de Calista Technologies, que fue adquirida por Microsoft. Antes de eso, fue director general de Rainfinity, que EMC compró.

Fundada: 2009

Financiación: En marzo de 2013, MAPR Tecnologías recaudado $ 30 millones en financiación de capital riesgo en una ronda dirigida por nuevo inversor Mayfield Fund, con la participación de los inversores existentes Lightspeed Venture Partners, NEA y Redpoint Ventures. Esto hace que la financiación total de $ 59 millones.

¿Por qué están en esta lista?: MapR terminó en el top 10 de la votación de Startup50.com, tiene impresionante respaldo VC y un director ejecutivo que sabe ver nuevas empresas a través de salidas exitosas.

La plataforma de MapR fusiona Hadoop, NoSQL, base de datos y streaming de aplicaciones en una sola plataforma de grandes datos unificada. Cualquiera que tenga un conocimiento superficial de Hadoop sabe que la velocidad no es una de sus reclamaciones a la fama. MapR afirma haber superado el obstáculo de velocidad, mientras que también ofrece características tales de nivel empresarial como de "alta disponibilidad, la continuidad del negocio, la transmisión en tiempo real, acceso basado en archivos estándar a través de NFS, el acceso de base de datos completa a través de ODBC, y el apoyo a la misión-crítica SLAs ".

Panorama competitivo: Los competidores incluyen Cloudera, EMC, Pivotal, Hortonworks, e Intel.

Clientes con nombre incluyen linaje, Rebicon y comScore.

5. ParStream



Qué hacen:  Desarrollar tecnologías de bases de datos que permitan "Datos rápidos."

Sede: Redwood City, California.

CEO: Mike Hummel, quien previamente cofundó Empulse, una compañía de soluciones de portales y software consultar ahora se especializa en proyectos Web 2.0.

Fundada: 2008

Financiación: ParStream ha asegurado $ 5.6 millones en financiación Serie A de Khosla, Baker Capital CrunchFund, Tola capital y Datos colectiva.

¿Por qué están en esta lista?: las bases de datos tradicionales simplemente no fue diseñada para una analítica de datos a escala grande, y desde luego no son capaces de ofrecer los conocimientos en tiempo real. Las bases de datos tradicionales analizan datos de forma secuencial y no son capaces de tomar ventaja de los avances en el procesamiento multi-core.

En el CTIA 2013 CEO Michael Hummel señaló que la memoria es un gran cuello de botella para las bases de datos tradicionales. Mientras tanto, el niño mimado de base de datos Big Data, Hadoop, tiene problemas para escalar de manera eficiente.

Hummel sostiene que la base de datos de ParStream fue especialmente diseñado para la velocidad. Considerando que existen muchas plataformas de bases de datos con el propósito de almacenar y analizar grandes cantidades de datos, ParStream fue diseñado para ofrecer tiempos de respuesta más rápidos y reducir los costos de infraestructura de almacenamiento de Big Data en el proceso.

ParStream permite "Data Fast" mediante el uso de una arquitectura distribuida que procesa los datos en paralelo. ParStream fue diseñado específicamente para ofrecer dos grandes de datos y datos rápidos, habilitados por una única de alto rendimiento Índice comprimido (HPCI). Esto elimina el paso y el tiempo extra que se requiere para la descompresión de datos.

ParStream pretende ofrecer tiempos de respuesta sub-segundo en miles de millones de registros de datos al importar continuamente nuevos datos.

Potencial de mercado y el panorama competitivo: Los analistas ven el mercado de Big Data llegar a cualquier lugar entre $ 18 mil millones (Wikibon) a $ 34 mil millones (Gartner) en 2013. Los competidores como SAP HANA, plataformas Apache y Sistemas Vertica (HP). Searchmetrics es un llamado al cliente, pero Hummel me aseguró que más se va en el registro pronto.

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code