Red-Neuronal-Artificial

Nota: (Una red-neuronal-artificial es un grupo interconectado de neuronas artificiales que utiliza un modelo matemático o computacional para el procesamiento de información basado en un enfoque conexionista de la computación, Las neuronas en las redes neuronales artificiales generalmente están estructuradas en capas, cada capa contiene varias neuronas).   Red-Neuronal-Artificial -. La artificial-neural-network, son redes de […]

Seguir leyendo

ANN & RNA

Nota: (La Artificial-Neuronal-Network (ANN) & Redes-Neuronales-Artificiales (RNA), son redes de neuronas artificiales . Son objeto de investigación en neuroinformática y representan una rama de la inteligencia artificial) .   ANN & RNA -. Al igual que las neuronas-artificiales, las redes-neuronales-artificiales tienen un modelo biológico. Se comparan con las redes neuronales naturales , que representan una […]

Seguir leyendo

Función-Activación

Nota: (A la salida de la neurona, puede existir, un filtro, función limitadora o umbral, que modifica el valor resultado o impone un límite que se debe sobrepasar para poder proseguir a otra neurona. Esta función se conoce como función de activación). Función & Activación En redes computacionales, la Función de Activación de un nodo […]

Seguir leyendo

Aplicaciones

Nota: (El uso de big-data ha sido y sera utilizado masivamente por la industria los medios, las empresas y los gobiernos para dirigirse con mayor precisión a su público y aumentar la eficiencia de sus mensajes).   Aplicaciones-Big-Data -. Esta Aplicaciones funciona de manera automatizada y combinando algunos aspectos esenciales como volumen de datos la […]

Seguir leyendo

Tecnología

Nota: (La Tecnología Big-Data se puede definir como una utilidad de software diseñada para analizar, procesar y extraer la información de conjuntos de datos extremadamente complejos y grandes que el software de procesamiento de datos tradicional nunca podría manejar).   Tecnología Big-Data -. Tenemos para procesar Big-Data muchas herramientas. Como Apache-Hadoop, NoSQL, Apache-Cassandra, Aprendizaje-Automático y […]

Seguir leyendo

Arquitectura

Nota: (Deep-Learning es un conjunto de algoritmos de aprendizaje automático que intenta modelar abstracciones de alto nivel en datos usando arquitecturas computacionales que admiten transformaciones no lineales múltiples e iterativas de datos expresados en forma matricial o tensorial).   Arquitectura El Deep Learning & Aprendizaje-Profundo es parte de un conjunto más amplio de métodos de […]

Seguir leyendo

Deep-Learning

Nota: (El Deep-Learning describe un método de aprendizaje automático que utiliza redes neuronales artificiales con numerosas capas intermedias entre la capa de entrada y la capa de salida. Es un método especial de procesamiento de información). Maneras de definir (Deep Learning) Aprendizaje profundo (Deep Learning) es un conjunto de algoritmos de aprendizaje-automático (en inglés, machine-learning) […]

Seguir leyendo

Generalidades

Nota: (Big-Data hace referencia al manejo y análisis masivo de datos, los cuales pueden estar en diferentes formatos o estructuras. Estos datos pueden ponerlos en valor por personas o empresas. Se encuentran con grandes volúmenes de datos, que de ser explotados correctamente son de gran utilidad para organizaciones para conseguir ventajas competitivas respecto a sus […]

Seguir leyendo

Que son Macrodatos

Nota: (Big-data es el término que describe los volumen de datos masivos (Macrodatos), que nos inundan masivamente todos los días a las empresa y corporaciones, big data es el analizado para obtener la información que oriente a tomar las mejores decisiones y acciones en los negocios) .   Que son los Macrodatos -. Big-data , […]

Seguir leyendo

CLI

Nota : (En docker-compose ejecutando docker-compose –help desde el terminal visualizaremos la Información de uso la ayuda para docker-compose).   CLI-(Docker-Compose) General y ayuda de las opciones de comando : In: root@juan-Aspire-ES1-512:/# docker-compose –help Nota : con estos comandos podemos definir y ejecutar las aplicaciones de los contenedores. Usage: docker-compose [-f <arg>…] [–profile <name>…] [options] […]

Seguir leyendo

Variables de Entorno

Nota: (Las variables de entorno son variables configurables en los sistemas operativos que a menudo contienen rutas a programas o datos específicos, así como datos y configuraciones específicos que pueden usar varios programas. Por lo general, se trata de cadenas de caracteres) .   Variables de Entorno -. Compose admite la declaración de variables de […]

Seguir leyendo

Networking

Nota: (Docker Compose configura una sola red para su aplicación de manera predeterminada, agregando cada contenedor para un servicio a la red predeterminada. Los contenedores en una sola red pueden alcanzar y descubrir cualquier otro contenedor en la red). Compose (Networking) -. Compose crea automáticamente una red para la aplicación. La red de su aplicación […]

Seguir leyendo

Modelo de Aplicación

Nota: (Compose permite crear una aplicación en un contenedor o contenedores independiente de la plataforma. Este diseño es un conjunto de contenedores que funciona compartiendo recursos y las comunicaciones necesarias).   Compose-(Modelo de Aplicación) -. Los componentes de una aplicación se llama (Servicios) . Un Servicio es un concepto abstracto implementado en plataformas mediante la […]

Seguir leyendo

Escenario-Compose

Nota: (ponemos a prueba los conceptos clave de Docker Compose mientras se crea una aplicación web de Python la aplicación que usare es Flask y con un contador de visitas en Redis. (Este ejemplo esta basado en el que expone docs.docker). Escenario-Docker-Compose Nota: Flask es un framework minimalista escrito en Python que permite crear aplicaciones […]

Seguir leyendo

Spark-Worker

Nota: (creación de una images-docker-worker usare como base-python-pip-nano-java:latest d00fbf90b86b para usarla en proyectos de “Apache-Spark-Docker-Compose” ). Spark-Worker Nota: (Lo primero crear la carpeta my-dockerfile donde guardamos nuestros Dockerfile, con nano creamos Spark-worker.Dockerfile y pegamos el testo correspondiente“siempre con mayúscula .Dockerfile” ). In: root@juan-SATELLITE-C55-C-1JM:/# mkdir my-dockerfile In: root@juan-SATELLITE-C55-C-1JM:/# cd my-dockerfile Creamos un archivo dockerfile con nano […]

Seguir leyendo

Spark-Master

Nota: (creación de una images-docker-master usare como base-jupyter:latest 04d1d2b17e54 para usarla en proyectos de “Apache-Spark-Docker-Compose” ). Spark-Master Nota: (Lo primero crear la carpeta my-dockerfile donde guardamos nuestros Dockerfile, con nano creamos Spark-Master.Dockerfile y pegamos el testo correspondiente“siempre con mayúscula .Dockerfile” ). In: root@juan-SATELLITE-C55-C-1JM:/# mkdir my-dockerfile In: root@juan-SATELLITE-C55-C-1JM:/# cd my-dockerfile Creamos un archivo dockerfile con nano […]

Seguir leyendo

Images-Base-Jupyter

Nota: (creación de una images-docker que nos sirva como base para otras aplicaciones como apache-spark, juncional para jupyterlab y jupyter-notebook). Images-Base-Jupyter Nota: (Lo primero crear la carpeta my-dockerfile donde guardamos nuestros Dockerfile, con nano creamos jupyter.Dockerfile y pegamos el testo correspondiente“siempre con mayúscula .Dockerfile” ). In: root@juan-SATELLITE-C55-C-1JM:/# mkdir my-dockerfile In: root@juan-SATELLITE-C55-C-1JM:/# cd my-dockerfile Creamos un […]

Seguir leyendo

Spark-Standalone-Cluster-Docker

Nota: La necesidad de tener una computación en paralelo en sistema distribuido en my-portatil sin necesidad de uso de servidores físicos o virtuales para nuestros proyectos y laboratorios, usando en este caso PySpark, tenemos interesantes proyectos en GitHub usaremos uno de ellos en este post. Spark-Standalone-Cluster-Docker Nota: GitHub, es un servicio de alojamiento de Internet […]

Seguir leyendo

SparkSession

Nota: SparkSession se ha convertido de hecho en un punto de entrada a Spark para trabajar con RDD, DataFrame y Dataset, desde Spark-2.0 (SparkContext era punto de entrada antes de salir SparkSession pero sigue usando) . Que es SparkSession -. SparkSession se esta convirtiendo en la puerta de entrada a PySpark para trabajar con RDD […]

Seguir leyendo

SparkContext

Nota: SparkContext esta presente a partir de la versión Spark-1, es el punto de entrada a Spark y PySpark, Crear SparkContext es lo primer que tenemos que hacer para usar RDD , Acumuladores y Variables de difusión en el clúster mediante programación, es el objeto sc es una variable predeterminada disponible en spark-shell y PySpark. […]

Seguir leyendo