jueves, 27 de octubre de 2016

CODIFICACIÓN DEL COLOR

Existen tres colores fundamentales que nuestra retina capta y transforma en los diversos colores que conocemos. 

La composición de estos tres colores primarios de luz (rojo, verde y azul) es conocida con las siglas de RGB (red, green, blue).




Este modelo de color basado en la síntesis aditiva, hace posible representar un color cualquiera mezclando los tres colores de luz primarios. 

Para indicar con qué proporción se mezcla cada color, le asignamos un valor a cada uno de los colores primarios, así por ejemplo, el valor 0 significa que no interviene en la mezcla, y en la medida que ese valor aumenta, aportará más intensidad a la mezcla. 

Sabiendo esto, es fácil deducir que un PIXEL, es un conjunto de tres puntos (uno rojo, uno verde y uno azul), que brilla con intensidad. 






Sin embargo, el modelo HSL que se representa como un cono doble se corresponde con el color blanco y el negro. El ángulo se corresponde con el matiz, la distancia al eje con la saturación y la distancia al eje blanco-negro se corresponde con la luminiscencia



El modelo CMYK (Cyan,Magenta, Yellow y Key) es un modelo que se utiliza en la impresión de colores. Se basa en la absorción de la luz. 



Los colores en la web

Los colores Web son aquellos colores que aparecen en una página web. Se pueden basar en el RGB o HSL. 


lunes, 24 de octubre de 2016

CURIOSIDADES


Primera:

Si realizamos una foto con nuestra cámara digital de 10Mpx con una resolución de 3648x2736 y una profundidad de color 24 bits y no hay compresión ¿cuanto ocupará dicha imagén?

3648x2736x3x24 = 718.626.816 bits / 8 = 89.828.352 bytes / 1024 = 87.723 kbytes / 1024 = 85,67Mbytes = 86Mbytes


Segunda:

Si grabamos una conversación telefónica de 15 minutos con calidad de 16 bits, frecuencia 8kHz y en estéreo. ¿Cuánto ocuparía dicha conversación?

8KHz = 8000Hz
15 minutos = 15x60 (segundos) = 900 segundos
Estéreo (canales que utiliza): 2 

8000x900x2x16= 230.400.000 bits

2304000000/8= 28.800.000 bytes/ 1024 = 28125 kbtytes  /1024 = 27.465....= 28 Mbytes

Tercera:

Nuestro móvil graba vídeos con una resolución de 320x200 con 16 bits de color y a 20fps. El sonido es mono con calidad de 16bits y 22kHz. Si el móvil tiene una tarjeta de 1GB ¿Cuánto tiempo de vídeo cabe en él?

Mono (un canal de 16bits=
22kHz= 22000 

Imagen:

(320x200x16x3)x20= 61440000 bits

Sonido:

22000x16x1= 352000

Total= 61440000 + 352000 = 61.742.000 bit / 8 = 7724000 bytes / 1024 = 7543 kbytes = 7, 37 Megas/seg. 

1GB=1024Megas

1024/7.37= 139 segundo








REPRESENTACIÓN DE ARCHIVOS

Un archivo se puede guardar de varias maneras. En este caso vamos a guardar una frase en diferentes formatos para observar como el tamaño del fichero varia.

La frase que hemos guardado es la siguiente:

"En este ejercicio vamos a comprobar el tamaño de una misma información almacenada en distintos formatos de representación"

Primero lo hemos guardado en formato UTF-8.
Segundo en formato ANSI
Tercero en formato UNICODE

¿Cual es el tamaño en cada uno de ellos?

1. 131 bytes
2. 126 bytes
3. 264 bytes


Curioso ¿cierto?



DESCOFICACIÓN

Descodifica la siguiente palabra en binario:

01000110   01001100   01001111   01010010

¿Que palabra se esconde detrás?



domingo, 16 de octubre de 2016

CENTRO DE PROCESAMIENTO DE DATOS (CPD)

Se denomina Centro de Procesamiento de Datos (CDP) a aquella ubicación donde se concentran los recursos necesarios para el procesamiento de la información de una organización. En España se conoce como Centro de Cálculo  o Centro de Datos.


Dichos recursos consisten esencialmente en unas dependencias debidamente acondicionadas, computadoras y redes de comunicaciones. 


Resultado de imagen de cpd


Ubicación física

Un CPD es un edificio de gran tamaño en el que se mantiene una gran cantidad de equipamiento electrónico. Suelen crearse por grandes organizaciones con el objetivo de tener acceso a la información necesaria para sus operaciones. Por ejemplo, un banco puede tener un centro de procesamiento de datos con el propósito de almacenar todos los datos de sus clientes y las operaciones que estos realizan sobre sus cuentas. Prácticamente todas las compañías que son medianas o grandes tiene algún tipo de CPD. Las grandes tienen varios.

Factores:
-   Garantiza la continuidad del servicio a clientes, empleados, ciudadanos, proveedores y empresas colaboradoras
-      También garantiza la continuidad en servidores de bases de datos que puedan contener información critica


Diseño del proyecto

El proyecto de diseño en un CPD comienza por la elección de su ubicación geográfica y requiere un equilibrio entre diversos factores:
  • Coste económico
  • Infraestructura
  • Riesgo

Para que se energéticamente eficiente  se necesita a su vez seguir una serie de consejos prácticos:
  • Una idea clara del sistema a utilizar
  • Procurar que el grado de utilización sea uniforme
  • Diseño de la conducción de aire
  • Utilización de climatizadores con ventiladores
  • Separación entre aire frío y el aire caliente
  • Temperaturas más elevadas en la impulsión
  • Aire exterior para el free cooling indirecto
  • Descargar el balance término
  • Considerar nuevas tecnologías


Situación física

Básicamente, todos los grandes servidores suelen ubicarse en una sala llamada “sala fría”, “nevera” o “pecera”, la cual requiere un sistema específico de refrigeración para mantener una temperatura baja (entre 21-23ºC), necesaria para evitar averías en las computadoras originadas por sobrecalentamiento.

La temperatura ideal según las normas internacionales es 22,3ºC.

Resultado de imagen de Centro de procesamiento de datos sala fria



Consumo

El gasto por consumo de un CPD suele ser muy elevado, por ello se están desarrollando  iniciativas para controlarlo, destaca la EU Code of Conduct for Data Centres o uso de recursos naturales limpios para refrigerar.


El CPD en España: Inverxión MAD 2 “las vísceras del internet” 

Interxión es una multinacional que desarrolla y gestiona centros de datos donde las empresas alojan su infraestructura de misión crítica. Especializado en centros de datos independientes en Europa, con amplia cartera de clientes en los 34 centros de datos en 11 países europeos, ofrece a sus clientes una gran seguridad y alta disponibilidad para sus aplicaciones de misión crítica. Con conectividad de más de 450 operadores de telecomunicaciones e ISPs y acceso a 19 puntos Neutros europeos, Interxion ha constituido diversos nodos cloud, de contenido, financieros y conectividad para acoger a las crecientes comunidades de interés.

En España el centro de datos MAD2 está ubicado en la zona con  mayor conectividad de España, el Silicón Alley de Madrid, Asociación de Empresas Tecnológicas, dedicadas a la producción, fabricación, comercialización de productos y/o prestación de servicios basados o directamente relacionados con el ámbito de las tecnologías y telecomunicaciones.

El marco geográfico en el que se unen las empresas asociadas está conformado por los siguientes barrios: El Salvador, Simancas, Canillejas, Hellín, Amposta, Arcos, Rosas y Rejas. 




El 16 de septiembre de 2013, INTERXIÓN HOLDGING NV, proveedor europeo especialista en servicios de alojamiento en centros de datos independientes anuncia que su centro de datos MAD2, es pionera en España en conseguir la certificación LEED Gold. Convirtiéndose así en el primer y único centro de datos en obtener este sello en nuestro país.

La certificación LEED, es un sistema internacionalmente reconocido de certificación de edificios sostenibles. Verifica que el edificio ha sido diseñado y construido a través de estrategias encaminadas a mejorar el ahorro de energía, el uso eficiente del agua, la reducción de las emisiones de CO2, la mejora interior de la calidad ambiental, la gestión de recursos y la sensibilidad a sus efectos.

En el caso de Madrid, el 100% de la energía que suministra Interxion a sus clientes procede de fuentes renovables como la energía eólica, hidráulica o biomasa. Algo que también le ha permitido obtener la certificación de la CNE (Comisión Nacional de Energía de suministro eléctrico 100% verde).


viernes, 7 de octubre de 2016

JOHN VON NEUMAN - LA CALCULADORA HUMANA

Mucho se ha hablado sobre el origen de la computación y de quien o quienes fueron los padres de esta ciencia. Son incalculables los nombres de científicos que dedicaron sus vidas a esta disciplina. Sus estudios, investigaciones y trabajos han sido y serán la base de lo que hoy se conoce como informática, de eso nadie tiene duda a día de hoy.

Uno de estos renombrados científicos fue John Von Neuman, matemático húngaro-estadounidense. Sus trabajos se centraban en física cuántica, análisis funcional, teoría de conjuntos, teoría de juegos, ciencia de la computación, economía, análisis numérico, cibernética, hidrodinámica, estadística y muchos otros campos relacionados entre sí, pero ¿quién fue en verdad Von Neuman? ¿en realidad sus investigaciones fueron aportaciones importantes para este campo? La historia responde que sí.

John Von Neuman nació en Budapesst el 28 de diciembre de 1903. Su nombre verdadero era Margittai Neumann Janos. Desde pequeño fue un niño prodigio, por su impresionante memoria fotografía y por su habilidad con los idiomas. Con su padre solía bromear en griego clásico. A los 10 años ya destaca en matemáticas, en 1925 se  licenció en química y a los 23 ya era doctorado en matemáticas.

Resultado de imagen de von neumann

Todo ello hizo que al final de los años 40 su programa atómico se convirtiera en el soporte básico de muchas investigaciones científicas, lo que provocó a mediados de los años 50 que fuera ratificado como uno de los cinco comisarios de la Comisión de Energía Atómica, ya que trabajo en el desarrollo de la bomba atómica de EEUU para la 2ª GM.

Uno de sus colegas de profesión Herman Goldstine lo recuerda de esta manera:

"Afortunadamente, von Neumann era una persona cálida y amable que procuraba que la gente no estuviese tensa en su presencia. La conversación se centró rápidamente en mi trabajo. Cuando le comenté que estaba participando en el desarrollo de una computadora electrónica capaz de realizar 333 multiplicaciones por segundo, la atmósfera de nuestra conversación pasó de un relajado buen humor a una más propia del examen oral para un doctorado en matemáticas. Poco después, ambos fuimos a Filadelfia para que von Neumann pudiese conocer el ENIAC."

La arquitectura de von Neumann

John von Neuman es uno de los responsables de sentar los pilares sobre los que se apoyan los computadores actuales. En 1936,  Alan Turing (compañero también de profesión) propuso la “máquina computadora universal”. Von Neuman se ofreció voluntaria para redactor un primer esbozo que describiese el computador, y de aquel trabajo salió el concepto de “arquitectura de Von Neuman?

Pero ¿en qué consiste la arquitectura de von Neumann? Según el modelo de von Neumann, los distintos bloques funcionales que conforman una computadora deben estar siempre conectados entre sí; dicho de otra forma, no hay que modificar el hardware o su configuración a la hora de ejecutar un programa. Con esta idea de partida, la arquitectura constaba de los siguientes bloques funcionales:

  • Unidad central de proceso (CPU), núcleo central del computador y encargado de realizar las operaciones básicas y de gestionar el funcionamiento del resto de componentes.
  • Memoria principal, lugar en el que se almacenan tanto datos como instrucciones.
  • Buses, es decir, el conexionado que permite la comunicación entre los distintos bloques funcionales del sistema.
  • Periféricos, los elementos que se encargan de tomar datos (teclado), mostrarlos en alguna salida (un monitor) o comunicarse con otros sistemas.

Si lo pensamos un momento, todos los bloques funcionales que forman la arquitectura de von Neumann nos sonarán familiares: la CPU como el procesador de nuestro PC, la memoria principal como la memoria RAM y los periféricos como nuestro monitor o nuestro teclado.


Resultado de imagen de arquitectura von neumann


La CPU, a su vez, está formada por dos bloques: la unidad de control y la ALU (unidad aritmético-lógica). La unidad de control es la encargada de leer las instrucciones que hay en la memoria (es decir, el programa a ejecutar) y se encarga de enviar las órdenes a los componentes del procesador para así ejecutar las instrucciones que marca el programa (decodificando las instrucciones y enviando las órdenes necesarias al resto de componentes del procesador). Para realizar esta función, la unidad de control cuenta con un "contador de programa" que, secuencialmente, recorre las distintas posiciones de memoria y va recopilando los datos e instrucciones. Por otro lado, la unidad aritmético-lógica (ALU) es la responsable de realizar operaciones aritméticas (sumas, restas...) y lógicas (NOT, AND, OR, XOR...) con los datos recibidos.

La CPU, a su vez, está formada por dos bloques: la unidad de control y la ALU (unidad aritmético-lógica). La unidad de control es la encargada de leer las instrucciones que hay en la memoria (es decir, el programa a ejecutar) y se encarga de enviar las órdenes a los componentes del procesador para así ejecutar las instrucciones que marca el programa (decodificando las instrucciones y enviando las órdenes necesarias al resto de componentes del procesador). Para realizar esta función, la unidad de control cuenta con un "contador de programa" que, secuencialmente, recorre las distintas posiciones de memoria y va recopilando los datos e instrucciones. Por otro lado, la unidad aritmético-lógica (ALU) es la responsable de realizar operaciones aritméticas (sumas, restas...) y lógicas (NOT, AND, OR, XOR...) con los datos recibidos.
Resultado de imagen de alu

Otros dos conceptos que hay que de resaltar en la arquitectura de Von Neuman son los registros en la CPU y los buses del ordenador. 

Los registros son memorias de alta velocidad y poca capacidad, integrada en el microprocesador, que perite guardar transitoriamente y acceder a valores muy usados, en principios en operaciones matemáticas. Existen muchos tipos de registros: de datos, memoria, propósito general, como flotante, constante y propósito especifico. 

En cuanto a los buses del ordenador o canal decir que es un sistema digital que transfiere datos entre los componentes de una computadora o entre varias computadoras. Está formado por cables o pistas en un circuito impreso, dispositivos como registros y condensadores además de circuitos integrados.

Se pueden distinguir tres tipos de buses:
-       Bus de datos o bidireccional. Transporta datos de la memoria principal y de las unidades de entrada-salida.
-      Bus de dirección o unidireccional. Transporta las direcciones de la unidad de control a la memoria principal o a los periféricos
-     Bus de control o bidireccional. Transporta las señales de control o microórdenes generadas por la unidad de control.


Resultado de imagen de buses de ordenador


Replicantes

Es evidente que von Neumann es conocido por su arquitectura, pero existe otra facete de su trabajo relacionada con el mundo de la robótica y el concepto de “replicante”. Conocida como MAQUINA DE VON NEUMANN, este concepto teórica dibujaba la posibilidad de crear maquinas que fuesen capaces de autoreplicarse: unas máquinas que pudiera recoger materias primas de su entorno y, además de recopilarlas para su utilización (por ejemplo, en el ámbito de la minería), pudieran ser procesadas por las propias máquinas para construir réplicas de sí mismas.

El concepto, que tiene cierta similitud a los "replicantes" de la serie de ciencia-ficción Stargate SG-1, estaba pensado para trabajos repetitivos como, por ejemplo, la extracción de mineral y se apoyaba en la replicación para que, de manera indefinida y exponencial, se pudiese aumentar el rendimiento de explotación gracias a la escalabilidad horizontal de la maquinaria (crecen las máquinas y, cada una, se va replicando).

Las máquinas de von Neumann estaban definidas en base a 8 componentes básicos y cuatro elementos lógicos que, además, no violaban ninguna ley física. Por tanto, la teoría de von Neumann está apoyada en principios que podrían ser viables.

Tanto es así, que pasados los años, conocemos estructuras que son capaces de replicarse de manera autónoma. Los virus, por ejemplo, son capaces de replicarse y extenderse de ordenador en ordenador y, además, en el ámbito de la impresión 3D, proyectos como RepRap parten de la base de la auto-replicación para construir la propia impresora.