miércoles, 21 de octubre de 2009

UPS


Un SAI (Sistema de Alimentación Ininterrumpida), también conocido por sus siglas en inglés UPS (Uninterruptible Power Supply: ‘suministro de energía ininterrumpible’) e incorrectamente generalizado como No break, es un dispositivo que gracias a sus baterías, puede proporcionar energía eléctrica tras un apagón a todos los dispositivos que tenga conectados. Otra de las funciones de los SAI es la de mejorar la calidad de la energía eléctrica que llega a los aparatos, filtrando subidas y bajadas de tensión y eliminando armónicos de la red en el caso de usar Corriente Alterna. Los SAI dan energía eléctrica a equipos llamados cargas críticas, como pueden ser aparatos médicos, industriales o informáticos que, como se ha dicho antes, requieren tener siempre alimentación y que ésta sea de calidad, debido a la necesidad de estar en todo momento operativos y sin fallos (picos o caídas de tensión).

Potencia

La unidad de potencia para configurar un SAI es el voltiamperio (VA), que es potencia aparente consumida por el sistema. Para calcular cuanta energía requiere su equipo, busque el consumo en la parte trasera del aparato o en el manual del usuario. Si está la potencia activa, en vatios, multiplica la cantidad de vatios por 1,4 (esto dependiendo del equipo, ya que algunos son más grandes, esto quiere decir que el factor de potencia es variable) para tener en cuenta el factor de potencia, por ejemplo: 200 vatios x 1,4 = 280 VA. Si lo que encuentra es la tensión y la corriente nominales, para calcular la potencia aparente (VA) hay que multiplicar la corriente (amperios) por la tensión (voltios), por ejemplo: 3 amperios. x 220 voltios = 660 VA.

Tipos

SAI de continua

Las cargas conectadas a los SAI requieren una alimentación de corriente continua, por lo tanto éstos transformarán la corriente alterna de la red comercial a corriente continua y la usarán para alimentar a la carga y almacenarla en sus baterías. Por lo tanto no requieren convertidores entre las baterías y las cargas.

SAI de alterna

Estos SAI obtienen a su salida una señal alterna, por lo que necesitan un inversor para transformar la señal continua que proviene de las baterías en una señal alterna.

Defectos de la energía eléctrica

Un corte de energía se define como una condición de tensión cero en la alimentación eléctrica que dura más de dos ciclos (40 ms). Puede ser causado por el encendido de un interruptor, un problema en la instalación del usuario, un fallo en la distribución eléctrica o un fallo de la red comercial. Esta condición puede llevar a la pérdida parcial o total de datos, corrupción de archivos y daño del hardware.

Una baja tensión es un estado continuo de baja tensión de la red. Un ejemplo de ello es la baja tensión producida durante la gran demanda energética del verano, que las centrales generadoras no alcanzan a satisfacer, bajando entonces la tensión para limitar la potencia máxima requerida. Cuando esto sucede, los sistemas de computación pueden experimentar corrupción de datos y fallos en el hardware.

Una variación de frecuencia involucra un cambio en la frecuencia nominal de la alimentación del equipo, normalmente estable en 50 ó 60 Hz dependiendo esto de la ubicación geográfica. Este caso puede ser causado por el funcionamiento errático de grupos de electrógenos o por inestabilidad en las fuentes de suministro eléctrico. Para equipos electrónicos sensibles, el resultado puede ser la corrupción de datos, apagado del dísco duro, bloqueo del teclado y fallos de programas.

Ruido eléctrico

El ruido eléctrico de línea se define como la Interferencia de Radio Frecuencia (RFI) e Interferencia Electromagnética (EMI) y causa efectos indeseables en los circuitos electrónicos de los sistemas informáticos. Las fuentes del problema incluyen motores eléctricos, relés, dispositivos de control de motores, transmisiones de radiodifusión, radiación de microondas y tormentas eléctricas distantes. RFI, EMI y otros problemas de frecuencia pueden causar errores o pérdida de datos almacenados, interferencia en las comunicaciones, bloqueos del teclado y del sistema.

Los picos de alta tensión ocurren cuando hay repentinos incrementos de tensión en pocos microsegundos. Estos picos normalmente son el resultado de la caída cercana de un rayo, pero pueden existir otras causas también. Los efectos en sistemas electrónicos vulnerables pueden incluir desde pérdidas de datos hasta deterioro de fuentes de alimentación y tarjetas de circuito de los equipos. Son frecuentes los equipos rotos por esta causa.

Disquetera


La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.

Refiriéndonos exclusivamente al mundo del PC, en las unidades de disquete sólo han existido dos formatos físicos considerados como estándar, el de 5¼" y el de 3½". En formato de 5¼", el IBM PC original sólo contaba con unidades de 160 KB, esto era debido a que dichas unidades sólo aprovechaban una cara de los disquetes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 KB (DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 MB. El formato de 3½" IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 KB (DD o doble densidad) y para el resto las de 1,44 MB. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 MB. (EHD o extra alta densidad), pero no consiguió cuajar.

Historia

Los primeros disquetes utilizado en la informática eran de 8 pulgadas de diámetro (unos 20 centímetros) y podía almacenar una pequeña cantidad de datos comparados con lo que sacaron mas adelante las disqueteras y disquetes de 5¼ pulgadas. Estas utilizaba la misma tecnología de base y se llegaron a fabricar en varias versiones, siendo las más populares las de Doble Cara/Doble Densidad DS/DD, con una capacidad de 360 KBytes. En este formato el tamaño máximo que llegó a fabricarse fue el de alta densidad HD, con una capacidad de 1,2MBytes.

Luego aparecieron las disqueteras de 3½ pulgadas y sus disquetes de 2 modelos: Los de baja densidad, con una capacidad de 720 KBytes y los alta densidad de 1,44 MBytes. La única diferencia física es que los de 720 KBytes lleva un agujero en la parte trasera del disco y el de 1,44MBytes lleva 2 agujeros en el disco.

Hay otros que son los cuádruple los de Densidad Extra ED que llegan hasta los 2,88 Mbyets de estos no vamos hablar ni de los Zip que llegan a los 200 Mbytes.

Caracteristicas [

Por regla general las disqueteras de 3 1/2 las reconoce el sistema operativo sin problemas, ya que son Plug&Play. La BIOS viene configurada de fábrica para que primero arranque con la unidad A:

Pendrive

Una memoria USB (de Universal Serial Bus; en inglés pendrive, USB flash drive) es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información que puede requerir y no necesita baterías (pilas). La batería era necesaria en los primeros modelos, pero los más actuales ya no la necesitan. Estas memorias son resistentes a los rasguños (externos) al polvo, y algunos al agua –que han afectado a las formas previas de almacenamiento portátil-, como los disquetes, discos compactos y los DVD. En España son conocidas popularmente como pinchos o lápices.

Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes, y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128 y hasta 256 GB; siendo impráctico a los 64gb por su elevado costo. Esto supone, como mínimo, el equivalente a 180 CD de 700MB o 91.000 disquetes de 1.44 MB aproximadamente. Su gran popularidad le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas. El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al que se refieren.

Los sistemas operativos actuales pueden leer y escribir en las memorias sin más que enchufarlas a un conector USB del equipo encendido, recibiendo la energía de alimentación a través del propio conector que cuenta con 5 voltios. En equipos algo antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo (driver) proporcionado por el fabricante. Los sistemas GNU/Linux también tienen soporte para dispositivos de almacenamiento USB desde el kernel 2.4.

Historia

Corría el año 1996 cuando las empresas Digital Equipment Corporation, NEC, Compaq, Intel, Northern Telecom, Microsoft e IBM decidieron unir sus esfuerzos para crear el Universal Serial Bus o USB.

Las primeras unidades flash fueron fabricadas por M-Systems bajo la marca "Disgo" en tamaños de 8 MB, 16 MB, 32 MB y 64 MB. Estos fueron promocionados como los "verdaderos reemplazos del disquete", y su diseño continuó hasta los 256 MB. Los fabricantes asiáticos pronto fabricaron sus propias unidades más baratas que las de la serie Disgo.

Las modernas unidades flash (2009) poseen conectividad USB 2.0 y almacenan hasta 256 GB de memoria (lo cual es 1024 veces mayor al diseño de M-Systems).


Teclado

Un teclado es un periférico o dispositivo que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.

Historia

Disposición de las teclas

La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia.

Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo (´), grave (`) y circunflejo (^)), además de la cedilla (Ç) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.

Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.

Tipos de teclado

Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.

El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.

Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.

En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.

Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.

Hoy en día existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el ratón o con un dispositivo especial (podría ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado fisico.

Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.

Mouse

El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador, generalmente fabricado en plástico. Se utiliza con una de las manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.

Historia

Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.


Funcionamiento

Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.

El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas.




Chipset

Se denomina Chipset a un conjunto de circuitos integrados que van montados sobre la tarjeta madre. Ese conjunto es el eje del sistema, interconectando otros componentes, como el procesador, las memoria RAM, ROM, las tarjetas de expansión y de vídeo.

No incluye todos los integrados instalados sobre una misma tarjeta madre, por lo general son los dos o tres integrados mas grandes. Los demás realizan funciones especificas como red, sonido, PLL, alimentación eléctrica y control de las temperaturas. El chipset determina muchas de las características de una tarjeta madre y por lo general, la referencia de la misma, esta relacionada con la del Chipset.

A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.

Mientras que otras plataformas usan muy variadas combinaciones de chips de propósito general, los empleados en el Commodore 64 y la Familia Atari de 8 bits, incluso sus CPUs, suelen ser diseños especializados para la plataforma, que no se encuentran en otros equipos electrónicos, por lo que se comienzan a llamar chipsets.

Este término se generaliza en la siguiente generación de ordenadores domésticos : el Commodore Amiga y el Atari ST son los equipos más potentes de los años 90, y ambos tienen multitud de chips auxiliares que se encargan del manejo de la memoria, el sonido, los gráficos o el control de unidades de almacenamiento masivo dejando a la CPU libre para otras tareas. En el Amiga sobre todo se diferencian las generaciones por el chipset utilizado en cada una.

Tanto los chips de los Atari de 8 bits como los del Amiga tienen como diseñador a Jay Miner, por lo que algunos lo consideran el precursor de la moderna arquitectura utilizada en la actualidad.

Apple Computer comienza a utilizar chips diseñados por la compañía o comisionados expresamente a otras en su gama Apple Macintosh, pero pese a que irá integrando chips procedentes del campo PC, nunca se usa el término chipset para referirse al juego de chips empleado en cada nueva versión de los Mac, hasta la llegada de los equipos G4. Mientras tanto el IBM PC ha optado por usar chips de propósito general (IBM nunca pretendió obtener el éxito que tuvo) y sólo el subsistema gráfico tiene una ligera independencia de la CPU. Hasta la aparición de los IBM Personal System/2 no se producen cambios significativos, y el término chipset se reserva para los conjuntos de chips de una placa de ampliación (o integrada en placa madre, pero con el mismo bus de comunicaciones) dedicada a un único propósito como el sonido o el subsistema SCSI. Pero la necesidad de ahorrar espacio en la placa y abaratar costes trae primero la integración de todos los chips de control de periféricos (las llamadas placas multi-IO pasan de tener hasta 5 chips a integrar más funciones en uno sólo) y con la llegada del bus PCI y las especificaciones ATX de los primeros chipsets tal y como los conocemos ahora.

Subwoofer

El subwoofer es un subtipo de altavoz activo[1] de vía única diseñado para reproducir, aproximadamente, las dos primeras octavas (las más graves, normalmente entre 20 y 80 Hz)[2] del total de 10 que conforman el espectro completo de audiofrecuencias. Los subwoofer pretenden, por tanto, complementar los altavoces convencionales de dos vías que nunca cubren la primera octava (de 20 a 40 Hz) y con frecuencia sólo alcanzan a reproducir los componentes más agudos de la segunda (de 40 a 80 Hz).

Características

Típicamente, los subwoofer domésticos integran en sus versiones más simples una fuente de alimentación potente (normalmente entre los 100 VA y 1 kVA dado que en ocasiones pueden circular corrientes superiores a 10 ARMS por la bobina del transductor), un filtro pasa bajo activo, protecciones de sobrecarga, un amplificador dedicado y un único transductor de gran diámetro. El diseño y las propiedades mecánicas del recinto acústico en el que se encuentra el transductor son también determinantes en el desempeño de un subwoofer; en todo caso, mucho más determinante que para la reproducción de las octavas más altas.

Aunque los más frecuentes son del tipo analógico, existen ya en el mercado versiones digitales[3] [4] (la señal de entrada es digital a la que se aplicará filtrado pasa bajo digital, procesamiento de adecuación y corrección de sala mediante DSP y conversión digital-analógica posterior). Entre las ventajas de los modelos digitales se encuentra el hecho de que permiten ajustes en la respuesta en frecuencia y fase para la correcta adecuación al entorno de reproducción (Digital Room Correction) y una mejor integración del subwoofer con el resto de altavoces.

Dado que las longitudes de onda en el aire (a temperatura ambiente normal) de las frecuencias de los sonidos que típicamente reproduce un subwoofer son al menos varias decenas de veces la del diámetro del transductor que los reproduce, la directividad[5] de estos sonidos así reproducidos es del todo despreciable (véase Principio de Huygens y Difracción). No es posible para el observador, por tanto, localizar la fuente de estos sonidos por lo que la estereofonía en la reproducción de las octavas más graves es inútil. Se hace innecesario registrar/reproducir estos sonidos en más de un canal (y, por tanto, altavoz) tanto para los sistemas estereofónicos como multicanal.

Otra particularidad (relacionada con lo anterior) de la reproducción de los sonidos de frecuencias graves es la fuerte interacción que estos tienen con la sala en la que se reproducen. De acuerdo con Floyd E. Toole, la sala es la principal responsable de lo que se escucha hasta casi las cinco primeras octavas del total de diez que conforman el espectro de audiofrecuencias[6] (es decir, de las longitudes de onda superiores a 0,5 m aproximadamente). La correcta localización del subwoofer[7] en relación a la sala de audición y el observador, un adecuado tratamiento acústico de la sala de escucha (absorción y difusión) y el uso de un sistema de corrección digital (DRC) se hace totalmente necesario para la reproducción fiel de estos sonidos. Cuando no se observan estos requerimientos es frecuente que la inclusión simple de un subwoofer a un sistema resulte, paradójicamente, en un fuerte deterioro general de la fidelidad del sistema.

Este tipo de altavoz no se realiza casi nunca pasivo porque:

  • La reproducción de las bajas frecuencias (especialmente las más extremas, esto es, las de la primera octava) requiere, a igualdad de intensidad sonora (medido en dBSPL), una gran potencia en las versiones pasivas (de hecho, son raros, caros y de baja sensibilidad los altavoces domésticos pasivos que reproducen con dignidad frecuencias inferiores a 35 Hz). Esta potencia aumentaría los requerimientos de la etapa de amplificación (o limitarían la disponibilidad de éstos para el resto de frecuencias) si el subwoofer es pasivo.
  • La posibilidad de emplear filtros activos permite ecualizar la señal de entrada. Esto es algo muy interesante para limitar el volumen de la caja y para reforzar/compensar resonancias; un fenómeno especialmente notable con las más bajas frecuencias en recintos pequeños (la longitud de onda de un sonido de 20 Hz en el aire es de unos 17 m).
  • Un subwoofer pasivo tendría importantes problemas de compatibilidad con la mayoría de decodificadores/amplificadores con canal específico de subwoofer (por ejemplo amplificadores/decodificadores Dolby AC-3). Estos suelen tener salidas RCA sin amplificar para conectar con subwoofer activo. La compra de un amplificador monofónico adicional se haría imprescindible para estos casos.


Placa Madre

La placa base, placa madre, tarjeta madre o board (en inglés motherboard, mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de integrados, entre los que se encuentra el Chipset que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.

Va instalada dentro de un gabinete que por lo general esta hecho de lamina y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro del gabinete.

La placa base además incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas como: pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.