Big data




Eliminando el sesgo en la contratación


big data en RRHH podrían hacer más equitativa la contratación y prosperar la diversidad reduciendo el corte, dice Zoe Jervier Hewitt de EQT Ventures a Protocol. Eso comienza aun antes de que los candidatos sean entrevistados identificando qué criterios deben cumplir. Trato de hacer que el sistema de evaluación sea verdaderamente hermético, y encuentro que hay menos espacio a fin de que el corte no útil se introduzca en el proceso de esa manera, afirma Jervier Hewitt. Agrega que una tarjeta de puntuación de la evaluación puede centrar la atención en la competencia de un aspirante y tener un efecto positivo en la diversidad de la cañería y la diversidad de las contrataciones.


Aumento de la objetividad en la toma de resoluciones


Los profesionales de los recursos humanos siempre han confiado en los instintos viscerales usando datos muy descriptivos, pero tienen la posibilidad de tomar resoluciones más objetivas incorporando big data, dice Jaclyn Lee, oficial jefe de recursos humanos de la Universidad de Tecnología y Diseño de Singapur, al Directivo de Recursos Humanos.

La idea es mudar la mentalidad de uno que es reactivo a uno que es proactivo, dice Lee. Eso puede incluir el aprendizaje de la depuración de datos y el análisis de datos, como la forma de reconocer patrones en los datos.

Tener tales conocimientos de grandes análisis de datos y también inteligencia artificial es aún más esencial, en tanto que con la tasa de desempleo siendo tan baja como es, el liderazgo de RRHH no tiene mucho margen para 'hacerlo bien', afirma Rachel Lyubovitzky de EverythingBenefits a Forbes. Entender las tendencias más amplias de RRHH en múltiples organizaciones y poder aprovechar las experiencias compartidas deja a los empleadores tomar mejores resoluciones.

Modernizando el almacen de big data, ha llegado el instante


En el espacio de la tecnología y el análisis de datos, me recuerdan de forma continua que la única constante es el cambio. A esta industria le chifla crear. Una y otra vez innovamos para superar los retos inmediatos y futuros - con soluciones que abordan la necesidad de más datos, análisis más rápidos y una mejor arquitectura.

La innovación suele seguir una trayectoria de algo renovador, seguida de años de mejoras incrementales que maduran la oferta y la hacen aplicable a las masas. Aunque estos cambios incrementales son normalmente simples de agregar, el problema es que primero debemos implementar la innovación innovadora. Esta transición por norma general requiere cambios en los procesos, formación, re-estructuración y una larga y dolorosa migración. En última instancia, esto conduce a los ciclos de exageración tecnológica, en los que las empresas valoran individualmente cuándo o bien aun si el riesgo y la lucha por hacer un cambio merece la pena.

Mirando cara atrás... un poco de constancia... un tanto de perspectiva...


El Hadoop es un gran ejemplo de los dos lados de este fenómeno. Hace varios años, el Hadoop era la nueva innovación en el bloque. A principios de dos mil diez, llegó rápido y furioso como el asesino del almacén de datos de la compañía (EDW). Aunque la correo y la tecnología inmadura de Hadoop crearon confusión para muchas empresas, ciertos primeros adoptantes se lo tragaron y lo hicieron funcionar. Durante los años, la tecnología maduró hasta el punto de que (prácticamente) todo el mundo tenía un lago de datos basado en Hadoop marchando en sus centros de datos.

Avanzando de manera rápida hasta el 2020, y sus aplicaciones analíticas críticas para el negocio dependen de Hadoop - mas ahora está en el otro extremo del ciclo tecnológico. El ecosistema del Hadoop se ha ido desarrollando y evolucionando a lo largo de la última década, mas mientras tanto se han producido varias innovaciones tecnológicas. Ha llegado el instante de abrazar estas nuevas innovaciones - y modernizar su gran acervo de datos.

Hewlett Packard Enterprise puede asistir


Hewlett Packard Enterprise (HPE) sabe de primera mano que las organizaciones empresariales - y sus aplicaciones críticas para el negocio y de uso intensivo de datos - están atrapadas en esta tormenta de inseguridad y cambio. Últimamente hemos emprendido nuestro propio viaje de modernización para cumplir con nuestra visión de un negocio basado en datos. Nuestra nueva solución flexible de análisis de datos aprovecha los contenedores, el hardware más reciente y los conjuntos de herramientas de código abierto para aportar velocidad y agilidad a nuestra toma de decisiones y fortalecer a nuestros usuarios de todo el mundo desde el borde hasta la nube.

Desafortunadamente, no hay un botón fácil, puesto que cada organización tiene sus propios requisitos. Mas HPE puede ayudar a los clientes del servicio a navegar por este proceso. HPE tiene un completo portafolio de soluciones, experiencia y soporte para ayudar a actualizar su gran acervo de datos.

Para reducir el peligro del proceso de modernización, creamos el Programa de Evaluación de AMP de HPE para ayudar a los clientes del servicio a responder a las preguntas bastante difíciles sobre su gran acervo de información de datos. Con este ofrecimiento, HPE hará: Analizar su plataforma de estado actual, suministrar un mapa detallado para modernizar su plataforma actual de una forma que satisfaga las necesidades de negocios de su organización, y finalmente, prescribir un plan sistemático para llegar allí. Y a resultas de la Evaluación AMP, HPE puede aprovechar todo su arsenal de software de HPE Ezmeral, hardware de clase mundial y servicios probados para ofrecer la solución adecuada a sus necesidades específicas.




Lo que el big data significan para su pequeña empresa



En un mundo poco a poco más digital, la cantidad de datos que una pequeña empresa debe examinar aumenta de año en año. Aprende lo que significan el big data para tu PYME.


Internet solo existe desde hace tres décadas, pero en ese tiempo parcialmente corto, se ha transformado en una de las herramientas más importantes a nuestra disposición colectiva. Como dueño de una pequeña empresa, puede utilizarla para compilar datos que le asistan a tomar decisiones comerciales informadas, ejecutar análisis predictivos para futuras ventas y mejorar la experiencia del usuario.

Todas y cada una esas funciones son el resultado de big data. Al aprender a digerirlos y utilizarlos, su pequeña empresa puede convertir una valiosa información en acción.

¿Qué es el big data?


En su núcleo, big data es lo que semeja. Merced a los avances en la tecnología, podemos recoger y entender conjuntos de datos masivos y complejos que fluyen a una velocidad increíble. Dado que estos grandes conjuntos de datos pueden proceder de una extensa gama de fuentes a un volumen que los humanos no pueden comprender, confiamos en un avanzado software de procesamiento de datos para hacer que esos datos sean utilizables.

Sitios como Internet Live Stats facilitan la visualización de big data y la velocidad a la que una cantidad insalubre de información fluye por medio de Internet. Por ejemplo, ILS estima que cien con cinco Terabytes de tráfico de Internet, 85.836 búsquedas en Google y 9.139 tuits se mandan en un solo segundo.

Sin embargo, el big data proceden de más fuentes que solo la Internet. La computadora de a bordo de su auto recoge miles de puntos de datos sobre sus hábitos de conducción que el fabricante puede utilizar para determinar futuros cambios en sus autos, al tiempo que los distribuidores de seguros pueden emplear esos datos para ajustar sus tarifas.

Las grandes herramientas de datos modernas nos permiten examinar velozmente los resultados del pasado y el estado del presente para decidir qué acción sería la más efectiva en una situación particular, dijo Ivan Kot, gerente senior de Itransition.

A través del empleo de dicha herramienta, afirmó Kot, el tipo de datos que fluyen por medio de una fuente externa (como Internet) o una fuente interna (como los centros de llamadas internos y los registros de sitios) puede ayudar a las pequeñas empresas a pronosticar los resultados, prevenir el fraude y también impulsar la innovación.

¿De qué manera marcha el big data?


Puede ayudar a entender el big data en concepto de pesca comercial. Si tratas de dirigir un negocio siendo el único pescador parado al lado de un riachuelo, no vas a producir muchos peces. No obstante, si tienes una flota de navíos, cada uno con grandes trampas y extensas redes, obtendrás muchos peces de varias especies. Los programas de datos grandes son como esa flota de navíos, y los peces son todos los diferentes géneros de datos que producimos cada día.

Una vez recogidos, los datos son analizados por las compañías que utilizan las técnicas de big data. Este análisis permite a un científico de datos comprender una multitud de formas en que una empresa puede ser más eficiente y acrecentar los beneficios. el big data marchan para algo más que las necesidades de los usuarios - el campo médico también usa esos datos para pronosticar mejor la propagación de enfermedades.

Las compañías utilizan el big data para obtener información sobre una serie de cosas, incluyendo los patrones y comportamientos de los clientes - más comúnmente, los comportamientos de compra, afirmó Jack Zmudzinski, asociado senior de Future Processing. La razón por la que el big data son tan vitales para los negocios es que pueden ayudar a identificar nuevas oportunidades de desarrollo e inclusive nuevas industrias a través del examen de la información de los clientes del servicio.

Un científico de datos puede usar el big data para suministrar un contexto mediante consultas para identificar los conocimientos y los resultados de los datos. La automatización y las herramientas de flujo de trabajo automatizarían entonces las acciones basadas en los datos, según James Ford, que tiene un doctorado en ciencias de los datos y es el cofundador de AutoBead.

Tradicionalmente, los modelos de tecnología empleados por quienes invertían en grandes ideas de datos incluían géneros de bases de datos como SQL o bien NoSQL, que se conectaban mediante un autobus de servicio empresarial (integraciones de bases de datos y puntos finales), lo que normalizaba los datos y dejaba que funcionaran juntos, afirmó Ford. Las soluciones de procesamiento de datos a gran escala como Apache Hadoop o Databricks dejan el procesamiento y análisis de datos a gran escala.

Gracias al avance de la computación en nube, dijo Ford, el software de base de datos como el Universo DB de Microsoft Azure puede cobijar múltiples tipos de bases de datos en una base de datos. Debido a ello, los equipos ya no precisan invertir en costosos y complicados sistemas de integración, puesto que todos y cada uno de los datos existen en un lugar, separados por políticas de seguridad y lógica en lugar de API y distancia.



¿De qué manera se almacenan y regulan el big data?


Dado lo grande que son los datos, la instalación de almacenamiento de dicha información ha de ser del mismo modo masiva, ¿verdad?? Bueno, depende de la cantidad de dinero y espacio que su empresa tenga disponible. Ciertos centros de datos más grandes del planeta engloban millones de metros cuadrados y albergan miles de millones de dólares estadounidenses en equipos de servidores. Para su pequeña empresa, no obstante, un rack de servidores con terabytes de almacenaje podría ser suficiente.

Aunque es probable que halle muchas empresas que dependen de soluciones físicas para alojar sus sistemas de ficheros, como un gran almacén de datos o un servidor a gran escala, otras empresas han recurrido a soluciones de almacenaje basadas en la nube, como las que ofrecen Google y Amazon Web Services. En los dos casos, los datos pueden guardarse mientras tengan espacio.

En cuanto a la regulación de big data, el gobierno federal de los EE.UU. ha tomado un enfoque de no intervención en el tema. En cambio, las leyes de privacidad existentes tienden a observar el big data y las corporaciones que buscan participar en ellos. Las leyes de privacidad en Estados Unidos acostumbran a centrarse en industrias concretas que tratan con información sensible, como las instituciones financieras que utilizan información personal no pública, que debe ajustarse a la Ley Gramm-Leach-Bliley. De igual modo, los proveedores de servicios de salud que emplean big data deben cerciorarse de que los datos estén asegurados en cumplimiento de la Ley de Portabilidad y Responsabilidad de los Seguros Médicos (HIPAA).

Jacqueline Klosek, abogada senior de Goodwin Procter LLP, dijo en un artículo para Taylor Wessing que las compañías de forma frecuente alteran los datos para suprimir cualquier información de identificación sensible. Ese paso se da generalmente antes de que los científicos analicen los datos o antes de que se manden a un tercero.

Bajo el GLBA, la definición de 'información financiera reconocible personalmente' excluye específicamente: 'la información que no identifica a un consumidor, como la información agregada o bien los datos ciegos que no contienen identificadores personales como números de cuenta, nombres o bien direcciones', escribió Klosek. Asimismo existen excepciones a los requisitos de privacidad para los datos no identificados en razón de la HIPAA. Las empresas que empleen datos rigurosamente anonimizados van a deber continuar asegurándose de que su conducta cumple con sus propias políticas de privacidad y Clickando aquí obligaciones contractuales y, naturalmente, deberán asegurarse de que los datos en cuestión sean verdaderamente anónimos.

Conforme el big data aumentan en alcance, es solo cuestión de tiempo antes que la legislación rija los usos de los datos privados. A nivel estatal, ciertas partes del país ya han comenzado a tomar medidas.




Big data: ¿Qué tan amplio debe ser tu lente? Depende de su uso


La cantidad de datos que entran en su sistema puede marcar gran diferencia en su almacenamiento, ancho de banda y presupuesto. Considere la posibilidad de reducir su apertura.

Con big data que llegan a las organizaciones de todo el planeta a razón de dos con cinco quintillones de bytes de datos día a día, corresponde a las organizaciones determinar qué cantidad de estos big data es esencial y necesaria, y qué porciones de el big data son excesivas y pueden eliminarse antes de que los datos lleguen a los sistemas corporativos. Si las compañías no lo hacen, el ancho de banda, el almacenamiento y las capacidades de procesamiento se pueden exceder, junto con los presupuestos.

Para cada operación y análisis que las compañías realizan con big data, la clave es acotar cada caso de uso comercial por adelantado y predeterminar la cantidad de datos que verdaderamente necesitará para abordar el caso comercial. Inevitablemente, va a haber ciertos datos que simplemente no se necesitan. Separar estos datos de su proceso de ingestión de datos es lo que llamo estrechar la apertura de la lente a través de la cual los datos fluyen cara su depósito de datos.

Aquí hay dos ejemplos discordantes de ajuste de la lente de datos:

IBM RoboRXN y la mecánica de la formulación molecular


Cuando IBM diseñó su proyecto RoboRXN, que recoge enormes cantidades de datos no editados de la comunidad mundial de código abierto y otros sobre posibles combinaciones moleculares para la formulación de productos, hubo que tomar decisiones sobre la cantidad de esos datos que era pertinente para el proyecto en el que estaban trabajando.

El proyecto RoboRXN se centró en el diseño de nuevas moléculas para soluciones farmacéuticas, como la vacuna COVID-diecinueve. Esto quería decir que no se necesitaban libros blancos, resultados de investigaciones estadísticas y otras fuentes de investigación que no tenían relación directa con el proyecto de formulación molecular en el que se trabajaba. Lo que IBM decidió hacer fue implementar la inteligencia artificial (IA) al frente del proceso de ingestión de datos mientras que este enorme tesoro de datos no editados se estaba amontonando.

El algoritmo de IA planteó una pregunta importante: ¿Cada elemento de los datos entrantes contenía algo relevante para el enfoque del proyecto? Para las investigaciones que no estaban en absoluto relacionadas con el proyecto, o bien que solo estaban relacionadas de forma distante y tangencial, la IA eliminó los datos, con lo que jamás fueron admitidos en el depósito de datos. En otras palabras, la apertura de la lente de datos al repositorio de datos del proyecto se estrechó, admitiendo solo aquellos elementos de datos que eran relevantes para el proyecto. Como resultado, se redujo el almacenaje y el procesamiento de datos, y también el costo.

El SETI y la busca de vida extraterrestre


Fundado en mil novecientos ochenta y cuatro, la misión del Instituto SETI era buscar vida extraterrestre. Esto se hizo a través de la vigilancia de las señales de radio y las emisiones del espacio para determinar si había algún patrón repetitivo que pudiera significar una comunicación de otra forma de vida. Científicos y voluntarios participaron en la iniciativa del SETI, examinando minuciosamente montañas de señales de radio sin editar que fluían sin cesar.

En este esfuerzo, se pudieron hacer pocas suposiciones por adelantado sobre los datos buenos en frente de los malos, por el hecho de que nadie estaba completamente seguro de lo que buscaba. En consecuencia, había pocas maneras de estrechar la apertura de la lente de datos, que debía mantenerse abierta. Esto dio sitio a altos niveles de procesamiento, almacenaje y trabajo manual.

Lo que el Instituto pudo hacer fue reducir los datos tras haberlos buscado en suma para localizar señales potenciales que pudieran indicar formas de vida inteligentes. En este punto, solo las señales con potencial de vida precisaban ser guardadas en bases de datos mucho más pequeñas.



Cómo convertirse en un científico de datos: Una hoja de trucos


Si está interesado en continuar una carrera en la ciencia de los datos, este manual es buena referencia para conseguir información sobre el sueldo, los mercados de trabajo más populares, la capacitación y más.

Los científicos de datos están muy solicitados, ocupando el codiciado puesto nº 1 en la lista de los mejores trabajos de América de Glassdoor durante los últimos cuatro años y presumiendo de unos salarios medios elevados para aquellos con las habilidades adecuadas. En 2012, la Harvard Business Review ha calificado a los científicos de datos como el trabajo más sexy del siglo veintiuno.

Una de las grandes razones por las que proseguimos viendo tal demanda de científicos de datos es que todas las compañías se están transformando en empresas tecnológicas, afirmó Allison Berry, especialista de la comunidad de Glassdoor, a TechRepublic. En cualquier industria que deba lidiar con datos digitalizados, o que tenga una aplicación o una presencia en línea, se precisa gente que pueda asistir a respaldar todo eso y a hallar ideas a partir de los datos.

Sin embargo, hoy día nos encaramos a una escasez de profesionales con conocimientos de ciencia de los datos: Para el año dos mil veinte, el número de vacantes anuales para todos y cada uno de los profesionales conocedores de datos en los EE.UU. aumentará a 2,7 millones, según predijo IBM. Aquellos con conocimientos de ciencia de datos pueden tener un salario base medio de ciento treinta dólares en los EE.UU. a partir de enero de 2019, y un cincuenta y seis por ciento más de ofertas de empleo que el año precedente, según LinkedIn.

Para ayudar a los interesados en el campo a entender mejor cómo entrar en una carrera en la ciencia de los datos, hemos creado una guía con los detalles y recursos más importantes.


Certificaciones en ciencias de la información para progresar tu currículo y tu salario.


A fines de agosto, Glassdoor tenía más de 53.000 ofertas de empleo que mentaban el aprendizaje automático (ML) y 20.000 trabajos que incluían la ciencia de los datos con salarios que iban de cincuenta a más de 180.000 dólares estadounidenses. Cada vez más empresas hacen del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las ocasiones de ingresos futuros.

Las grandes empresas de tecnología, así como las organizaciones tecnológicas independientes, ofrecen programas de capacitación para personas que son nuevas en la ciencia de los datos, de esta manera para profesionales que quieren dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos en línea para la ciencia de los datos ampliará su experiencia y añadirá un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículo.

Ingeniero profesional de aprendizaje automático de Google


Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google recomienda que los examinandos tengan al menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.

El examen dura cuatro horas y cuesta 120 dólares estadounidenses. Las 6 secciones del examen cubren:

  • Enmarcar el problema del ML

  • Arquitectura de la solución ML

  • Preparación y procesamiento de datos

  • Desarrollo del modelo de ML

  • Automatización y orquestación del oleoducto de ML

  • Monitoreo, optimización y mantenimiento de la solución de ML




Certificación en Inteligencia de Negocios de Oracle


Esta formación preparará a las personas para usar el software de Oracle para optimar las operaciones comerciales y crear informes, modelos y previsiones. Oracle ofrece formación en inteligencia empresarial en 4 categorías:

  1. BI Enterprise Edition - aprenda a edificar y administrar cuadros de mando

  2. Essbase - aprenda a usar el procesamiento metódico en línea para pronósticos y análisis

  3. BI Publisher - aprende a crear y entregar informes y otros documentos

  4. Aplicaciones de BI - aprenda a instalar, configurar y personalizar las aplicaciones de BI de Oracle y el almacén de inteligencia de negocios de Oracle


Las certificaciones están libres para los dos primeros programas de entrenamiento.

El programa de certificado de desarrollo de TensorFlow


Los desarrolladores que aprueben el examen pueden unirse a la Red de Certificados de TensorFlow. Este manual cubre los criterios para tomar el examen, incluyendo una lista de verificación de habilidades, elegibilidad y recursos tolerados a lo largo del examen.

Para aprobar el examen, los examinandos deben entender:

  1. Los principios fundamentales del ML y el aprendizaje profundo

  2. Edificando modelos de ML en TensorFlow 2.x

  3. Edificando reconocimiento de imágenes, detección de objetos, algoritmos de reconocimiento de texto con redes neuronales profundas y redes neuronales convolucionales

  4. Usando imágenes del mundo real de diferentes formas y tamaños para visualizar el viaje de una imagen por medio de las convoluciones para entender

  5. de qué manera una computadora ve la información, la pérdida de la trama y la precisión

  6. Explorando estrategias para prevenir el exceso de equipamiento, incluyendo el incremento y los abandonos

  7. Aplicando redes neuronales para solucionar problemas de procesamiento de lenguaje natural usando TensorFlow


Si estos temas son nuevos para ti, echa una ojeada al DeepLearning.ai TensorFlow in Practice Specialization on Coursera o bien al curso de Introducción al TensorFlow for Deep Learning sobre Udacity.

El examen cuesta 100 dólares americanos.

Leave a Reply

Your email address will not be published. Required fields are marked *