Esta página se verá mucho mejor con un navegador estándar, aunque es accesible desde cualquier navegador.


Periféricos
Discos SCSI externos







A pesar de las innumerables advertencias y recomendaciones, la mayor parte de los usuarios, tanto corporativos como domésticos, no se toman demasiado en serio la realización de copias de seguridad de los archivos más importantes de nuestro sistema hasta que ocurre la irremediable tragedia: la pérdida de toda esa valiosa información sin posibilidad de recuperación alguna. Lamentablemente, después de sufrir uno de estos inoportunos accidentes, estos mismo usuarios se muestran más receptivos a la adopción de políticas y procedimientos para la realización de copias de seguridad.

Seguridad y funcionalidad

Un disco duro o un sistema RAID de discos con sus diferentes niveles de seguridad contienen en su interior todos aquellos datos de vital importancia para nuestro negocio. A pesar de que se tomen las medidas oportunas para prevenir las posibles averías de estos dispositivos, tarde o temprano terminan por estropearse, al igual que todas las máquinas. Además, por sus especiales condiciones de funcionamiento, cualquier fallo en la alimentación o golpe fortuito puede provocar un fallo que deteriore el contenido de parte o de la totalidad de la información almacenada en el disco. Aunque esta posibilidad es cada vez más improbable, debido a la calidad en la fabricación de los discos duros y a la implementación de sistemas RAID, nadie es ajeno a los ataques o intrusiones malintencionadas de cualquier persona ajena a nuestra empresa, ya sea con el fin de dañar nuestro sistema, recabar información o simplemente hacer acto de presencia de una forma poco cabaIlerosa, como una muestra más de las especiales habilidades del orgulloso intruso.

Hace ya bastante tiempo que para buena parte de las empresas la cuestión de las copias de seguridad pasó de ser una labor rutinaria a ser uno de los procesos en el cual se ven afectados buena parte de los recursos del sistema.

Las posibles aplicaciones o utilidad de las unidades de copia de seguridad son innumerables, tantas como sea capaz de encontrar la imaginación del usuario, pero básicamente su propio nombre indica cuál es su misión principal dentro de cualquier sistema informático. Entre la enorme variedad de dispositivos destinados a la realización de estas tareas, y lejos de las soluciones de alto rendimiento y disponibilidad adoptadas por las grandes empresas, han ido surgiendo productos más enfocados a las necesidades de los usuarios domésticos o pequeñas empresas, que no precisen almacenar una ingente cantidad de información, ya que su entidad y volumen de negocio no lo requieren. Pero, en cambio, sí necesitan que esta información esté disponible lo más rápidamente posible, es decir, que el acceso a los datos se produzca de una forma directa o aleatoria, rechazando de pleno los Tiempos de espera en todos aquellos dispositivos de lectura secuencial. Asimismo, una de las capacidades o cualidades que buscan muchos de estos usuarios es poder trasladar, de forma cómoda y sencilla, la información almacenada y resguardada en los soportes a otros equipos que no cuentan con estos medios, o los disponibles no son del todo eficaces ni rentables.

Centrándonos más en el tema que nos ocupa, las unidades removibles se caracterizan por ser aquella clase de dispositivos que constan, por un lado, de una unidad lectora/grabadora, bien sea interna o externa (esta última opción es la que proporciona la libertad adecuada para poder trasladar el dispositivo de un lado a otro con los menores inconvenientes) y, por otro, de los necesarios soportes donde contener la información. Sino a modo de ejemplo que una disquetera con sus correspondientes disquetes es una unidad de almacenamiento removible, aunque su capacidad y velocidad no la convierten precisamente en una solución aconsejable, sobre todo si se tiene en cuenta que actualmente hay pocos archivos que puedan caber en un soporte de 1,44 MB.

La llegada de las nuevas capacidades multimedia al mundo doméstico, con el tratamiento de todo tipo de ficheros de imágenes y sonidos digitales, principalmente, han vuelto de poner de manifiesto la escasa funcionalidad de los actuales disquetes a 3,5 pulgadas, ya no sólo por la laboriosidad y lentitud que supone almacenar un archivo, lógicamente comprimido, que supere los 10 MB, sino que, además, la fiabilidad de los soportes no la hacen ser del todo recomendable para cualquier utilización mínimamente profesional.

En síntesis, la mayor parte de los usuarios a los cuales nos referimos, es recomendable contar con un dispositivo que pueda transportarse a instalarse cómodamente en otros equipos. Aunque este último requisito podría resultar innecesario si, de una vez por todas, los fabricantes de ordenadores se decidiesen a jubilar la tan socorrida disquetera incorporando una de las soluciones que se muestran en el presente artículo.

Tecnologías

Para poder ofrecer las capacidades y prestaciones demandadas por los distintos usuarios a unos precios medianamente razonables, cada fabricante ha optado por desarrollar una a otra tecnología, más o menos parecidas entre ellas, aunque con notables diferencias en cuestión de materiales empleados como soporte de la información y elementos internos para llegar al mismo objetivo final: conseguir un dispositivo de almacenamiento en el que los componentes destinados a almacenar la información puedan ser intercambiados de una forma rápida, sencilla y segura para los datos. Por tanto las características que deben tener estos nuevos dispositivos removibles para el almacenamiento a intercambio de información son, entre otras, rapidez de acceso, seguridad de los datos, y una tecnología que permita un crecimiento de capacidad manteniendo siempre la compatibilidad.

Cualquier tecnología que se proponga un alto grado de desarrollo y, al mismo tiempo, ser compatible con el nivel tecnológico existente debe tratar de cumplir cinco requisitos primordiales:

- Máxima compatibilidad.

- Alta capacidad de almacenamiento.

- Elevada fiabilidad.

- La mejor relación calidad/precio posible.

- Altas prestaciones.

Básicamente, el número de diferentes tecnologías empleadas en los dispositivos removibles se reduce a tres: magnética, óptica y magnetoóptica. Si bien, la tecnología magnética puede dividirse en otras dos modalidades conocidas como de disco flexible y de discos rígidos, no queremos profundizar más de lo necesario en este apartado conformándonos con contemplar las diferencias más significativas entre ellas.

Tecnología óptica

Para empezar, comenzaremos por la tecnología puramente óptica empleada por las unidades de CD-ROM y DVD-ROM, en sus distintas variantes, algunas de las cuales pueden considerarse también como dispositivos removibles, aunque para la elaboración de este artículo no se ha incluido ningún dispositivo de esta clase, ya que por si solos merecen todo un completo y amplio análisis. Sirva únicamente de referencia decir que presentan la mayor capacidad de almacenamiento gracias a los nuevos DVD-ROM, y una adecuada velocidad de transferencia, con la salvedad de que los distintos métodos utilizados para la grabación de la información en los soportes no son todo lo sencillos que un usuario novato necesitaría, precisando ciertos condicionantes para poder efectuar el proceso sin contratiempos. Por el contrario, presenta innegables ventajas como una generalizada implantación en el mercado tanto de dispositivos CD-ROM como de DVD-ROM, versatilidad y funcionalidad del soporte fuera del entorno meramente informático. Además, y como consecuencia de su masiva utilización, ofrece un coste realmente bajo por GB.

Por otro lado, la capacidad en un sistema puramente óptico depende fundamentalmente de la longitud de onda del láser. Además, existe un límite en la distancia entre las celdas de bit que es el ODL (Optical Difraction Limit), que determina la separación mínima que debe existir entre ellas con el objeto de que puedan ser discriminadas por el haz reflejado.

Cuando para incrementar la capacidad se reduce la longitud de onda del láser, los nuevos dispositivos no mantienen la compatibilidad con los soportes antiguos. Además, no es posible reducir el tamaño de la celda de información tanto como se quiera, pues debe existir una distancia mínima entre las celdas vecinas.

Por tanto, cada vez que se quiera incrementar la capacidad de almacenamiento esta clase de dispositivos mediante la reducción del diámetro de láser, perdemos la compatibilidad con los anteriores sistemas ópticos, a no ser que se monten en el mismo dispositivos dos o más cabezas láser lectoras con distintas longitudes de onda, como ocurre en las unidades de DVD para poder leer los CD-ROM.

Esto supone que a la hora de incrementar la capacidad haya que pensar en utilizar más de un disco, más de una cara, más de una capa, etc. Asimismo, estos dispositivos ópticos se basan en la tecnología de cambio de fase para la grabación de los datos. Mediante este sistema, el láser altera el medio modificando su estructura cristalina convirtiéndola en amorfa cada vez que graba un dato, lo que significa que con el tiempo este material se va degradando teniendo un ciclo de escritura limitada, del orden de 10.000 ciclos de escritura.

Tecnología magnética

Dejando a un lado la tecnología óptica por sus particulares condiciones de grabación y almacenamiento de la información, nos encontramos con las dos técnicas empleadas por excelencia en los dispositivos de almacenamiento removibles.

La tecnología magnética, derivada de los sistemas empleados en los disquetes, básicamente y según el tipo de soporte empleado en su funcionamiento es, en esencia, similar a la empleada en los discos duros. Un soporte recubierto por un sustrato magnético es sometido a la acción de un campo magnético generado por el cabezal de la unidad, orientando en una determinada dirección las partículas que forman dicho sustrato. En el proceso inverso, el de lectura, es el sustrato quien induce una corriente en el cabezal, interpretando un tipo de señal a otro según estén orientadas las partículas.

Esta tecnología, en principio, es bastante sencilla y razonablemente barata cuando la capacidad del soporte no va más allá de una decena de megabytes. Pero cuando se busca obtener la máxima capacidad el sistema se complica, necesitando extremar al máximo la precisión y calidad de todos los componentes. Por ejemplo, determinados equipos que utilizan tecnología magnética realizan el posicionamiento de la cabeza de lectura/escritura mediante un dispositivo óptico, que permite una mayor precisión a la hora de situar el cabezal en una pista, consiguiéndose una separación menor entre las pistas, que provoca una mayor densidad de datos y por lo tanto, más capacidad en el mismo espacio.

Fundamentalmente, para incrementar la capacidad de almacenamiento en los sistemas magnéticos se debe actuar sobre tres variables: el tipo de cabeza de lectura/escritura, la altura a la que ésta se posiciona sobre el disco y el material con que está fabricado el disco, más concretamente su superficie.

A pesar de que la evolución de los disco duros ha sido tan espectacular como la sufrida por otros componentes del ordenador, como el procesador del sistema o las tarjetas gráficas, estas mejoras no se han visto trasladadas al mundo de los dispositivos removibles basados en la tecnología magnética.

Sin entrar en mayores tecnicismos, digamos que la distancia de la cabeza a la superficie del disco determina en gran medida la máxima capacidad del dispositivo, lo que quiere decir que existe una limitación en el incremento de la capacidad, pues la distancia entre el cabezal magnético y el soporte de grabación no se puede reducir ilimitadamente. Además, aparte de la vulnerabilidad del soporte frente a fuertes campos magnéticos y otras agresiones externas, estos sistemas están expuestos a una serie de riesgos como pérdida de información por el choque entre el cabezal magnético y el soporte donde se almacena la información. Esta circunstancia va en contra de la fiabilidad del dispositivo, cualidad que debe vigilarse adecuadamente en cualquier dispositivo removible.

Otro factor primordial cuando se habla de dispositivos de almacenamiento removibles es el precio del soporte que utilizan para guardar la información. Algunos dispositivos que emplean esta tecnología tienen, por un lado, la ventaja de ser bastante económicos, pero tienen el importante contratiempo de utilizar cartuchos con una elevada relación precio por MB, desaconsejando su utilización cuando se necesiten almacenar grandes volúmenes de información.

A su favor cabe comentar que esta tecnología presenta la ventaja de tener una mayor tasa de transferencia frente a otras soluciones. Este factor influye notablemente en su elección cuando se busca conseguir altas velocidades de transferencia en determinadas aplicaciones como el tratamiento de vídeo o sonido digital, entre otras.

Tecnología magneto-óptica La tecnología magneto-óptica pretende aprovechar, por un lado, las cualidades de la tecnología magnética empleada en los discos duros como son una elevada tasa de transferencia, el rápido acceso directo y reescritura de los datos y, por otro lado, explota adecuadamente las ventajas de mayor fiabilidad de los datos, elevada portabilidad y menor coste económico que aporta la tecnología óptica utilizada en los CD-ROM y DVD-ROM.

En estos últimos años ha habido una revolución tecnológica que ha conducido a un considerable incremento en la capacidad y las prestaciones de los dispositivos M0. La enorme estabilidad y seguridad de los datos almacenados proporciona mayor fiabilidad que los soportes magnéticos convencionales, puesto que no existe riesgo de pérdida de información por colisión de la cabeza magnética con el soporte y no se ven afectados por los campos magnéticos externos, partículas de polvo, golpes, líquidos, etc.

Desde que en 1991 apareció en el mercado la primera unidad MO, la cual tenía una capacidad 128 MB, hasta la novedosa y revolucionaria tecnología Gigamo con 1,3 GB de capacidad por soporte, la modificaciones introducidas en esta tecnología han sido bastantes numerosas pero con dos denominadores comunes: alta fiabilidad y plena compatibilidad con las tecnologías anteriores.

Como referencia, indicar que esta nueva tecnología ha permitido duplicar la densidad de grabación en un cartucho MO de 3,5 pulgadas pasando de 640 MB a los 1,3 GB de capacidad, manteniendo el mismo formato de cartucho.

La tecnología MSR (Super Resolución Magnética Inducida), cuya denominación comercial es Gigamo, corresponde a un nuevo estándar de tecnología magneto-óptica desarrollado conjuntamente por Sony y Fujitsu, que variando sólo el tamaño del bit proporciona una capacidad de almacenamiento de 1,3 GB sobre un único soporte bajo formato de 3,5 pulgadas utilizando la misma longitud de onda de láser empleada en las unidades de 640 MB.

Esta significativa mejora se ha basado en la introducción de una nueva tecnología en los materiales empleados en la composición del soporte donde se lee y se graba la información, y sin modificar los componentes ópticos esenciales. Básicamente, esta mejora se fundamenta en el desarrollo realizado sobre el nuevo soporte, añadiendo una nueva capa en la estructura multicapas ya existente que actúa de máscara permitiendo la lectura de celdas de información más pequeñas que el diámetro del haz del láser.

En esta nueva estructura se ha separado la capa de escritura lectura en dos capas: una donde se graba la información (capa de escritura) y otra donde lee el láser (capa de lectura). En medio de estas dos capas es donde se encuentra la nueva capa que actúa como máscara proporcionando una resolución mucho mayor.

Interfaz de conexión

Independientemente de la tecnología que emplee cada dispositivo en busca de la mayor capacidad, fiabilidad y velocidad de transmisión, la interfaz de conexión utilizada para conectar este dispositivo al ordenador determinará en gran medida la velocidad máxima a que podrán transferirse los datos desde la unidad removible hasta el sistema o viceversa.

A continuación daremos un rápido repaso a los tipos de interfaz que comúnmente implementan estos dispositivos, remarcando las ventajas e inconvenientes de cada unas de ellas.

EIDE. Si duda alguna, en lo que a sistemas de almacenamiento se refiere, la interfaz por excelencia se denomina EIDE. Poco se puede decir que no se sepa ya de esta interfaz, ampliamente utilizada en la conexión de los disco duros de gama baja/media y en las unidades de CD-ROM/DVD-ROM, en todas sus variantes, bajo el estándar adaptado ATAPI. Su estandarización en los ordenadores con formato PC no se debe a que sea una solución con un elevado rendimiento, sino a que se trata de una solución fácil de implementar y, consecuentemente, barata, haciendo de ella una solución suficientemente apropiada para los equipos de gama baja y media.

Entre sus desventajas destaca que está diseñada específicamente para ser únicamente utilizada en periféricos internos, ya que no existe ninguna especificación EIDE para dispositivos' externos. Esta limitación obliga a tener que abrir la carcasa del ordenador para poder efectuar la conexión o desconexión del periférico en cuestión, inconveniente que merma sus cualidades cuando se requiere una alta movilidad y portabilidad.

Por otra parte, ofrece una elevada tasa de transferencia, ocupando el segundo lugar después del bus SCSI.

SCSI. Este veterano estándar es considerado como la solución profesional en conectividad. Gracias a sus buenas prestaciones y mayores posibilidades es empleado masivamente en aquellos periféricos tanto internos como externos, con el fin de obtener el máximo rendimiento y una adecuada flexibilidad de conexión entre los distintos dispositivos.

Las capacidades actuales de este estándar, capaz de transferir hasta 160 MBps están muy por encima de las prestaciones que ofrecen los dispositivos removibles, siendo más que suficiente el empleo de especificaciones de menor rendimiento como SCSI2 para soportar con amplia suficiencia las relativas bajas tasas de transferencia de los dispositivos removibles.

Sus únicos inconvenientes son un mayor precio frente a la misma solución con otros estándares de conexión y una mayor complejidad a la hora de instalarlo convenientemente. Frente a éstos, la interfaz SCSI, en sus distintas especificaciones, ofrece las mayores tasas de transferencia, y unas buenas posibilidades de interconexión.

Puerto paralelo- Debido a la aparición de los nuevos estándares de conexión USB y FireWare, este viejo conocido tiene los días contados pues su capacidad de transmisión y flexibilidad de conexión no pueden competir con los avances que en este campo aportan estas dos nuevas interfaces de conexión. Aún con todo, tardará algún tiempo hasta su definitiva desaparicíón ya que el parque de impresoras con conexión al puerto paralelo es enorme y su progresiva actualización llevará algunos años.

El puerto paralelo fue diseñado originalmente como un puerto para la salida de datos, a través del cual se conectaban mayoritariamente toda clase de impresoras, ya que la escasa comunicación desde la impresora hacia el ordenador se limitaba a poco mas que indicar si estaba preparada o disponía de papel. Este puerto sufrió una evolución con la llegada de los estándares ECP, EPP, que permiten una comunicación bidireccional a los 8 bits del puerto. A pesar de esta notable mejora, la velocidad de transferencia sigue siendo muy inferior al resto de interfaz comentadas. Esta grave limitación condiciona que su empleo se realice en unidades de baja capacidad y prestaciones o donde se precisa una alta movilidad y no se dispone de controladoras SCSI o puertos USB que puedan facilitar el empleo de unidades con estos tipos de interfaz.

Además, las conexiones a través del puerto paralelo suelen dar problemas en determinadas circunstancias, debido, principalmente, a que este tipo de puerto soporta cuatro modos de funcionamiento: normal, bidireccional, ECP y EPP, siendo unos más apropiados que otros para el tipo de periférico que esté conectado al puerto. Además, sí suelen darse numerosos problemas para la una coexistencia pacífica en el puerto paralelo entre la impresora y el escáner, cuando se añade un dispositivo removible estos problemas se agravan aún más.

La práctica totalidad de los nuevos ordenadores incluyen en su placa base uno o dos conectores USB.

Sin duda alguna, la principal característica de esta interfaz sobre los estándares empleados hasta ahora es la extremada sencillez de conexión: con tan sólo enchufar el dispositivo en cuestión al ordenador, éste lo reconocerá automáticamente, instalará sus controladores, pudiendo comenzar a trabajar con él sin la obligación de reiniciar el sistema. Además, por si esta enorme facilidad de conexión no fuera suficiente, permite interconectar hasta 127 periféricos en serie pudiendo funcionar todos ellos al mismo tiempo, superando con- mucho las posibilidades de las interfaces más conocidas hasta la fecha.

En síntesis, el estándar está ideado para facilitar al máximo el proceso de conexión de un periférico al ordenador. Sin embargo, su funcionamiento varía según el tipo de dispositivo que se vaya a conectar, ya que permite dos velocidades de transmisión adecuándose al ancho de banda que precise el periférico. Por un lado, tenemos dispositivos que pueden funcionar a 12 Mbits/s y otros menos exigentes tales como ratones o joysticks que no precisan tantos recursos y que tienen suficiente con 1,5 Mbits/s.

AI mismo tiempo, otra de las ventajas del estándar USB es que es capaz de alimentar de corriente eléctrica a todos aquellos periféricos que no precisen más de 5 voltios, siempre que el cable que una a todos ellos no exceda de los 5 metros de longitud. Esta capacidad permite el use de pequeños dispositivos como videocámaras sin tener que usar otros cables adicionales para su alimentación.

Sin embargo, existe otra serie de dispositivos con un alto consumo energético, que requieren una alimentación extra, para lo cual se hace del todo necesaria la incorporación de un toma de corriente auxiliar en el periférico con su correspondiente transformador. Pero entre tantas buenas cualidades no podía faltar un inconveniente, aunque bastante pequeño. Esta pega se debe a que este estándar sólo es soportado en el mundo PC por Windows 98, limitando su campo de aplicación al sector más doméstico, situación que varía ostensiblemente con la llegada del nuevo Windows 2000 que, entre la innumerable cantidad de mejoras introducidas, soportaeste estándar de conexión, aliviando un tanto la rigidez que hasta la fecha mantenía la familia de sistemas operatívos más profesionales de Microsoft.

IEEE 1394 "FireWire" A pesar de ser una de las especificaciones de Intel para el PC 99, este nuevo estándar se encuentra todavía en su fase inicial de lanzamiento, y su implantación definitiva vendrá a solucionar muchos de los problemas que aquejan a los sufridos usuarios.

La característica más significativa de este estándar tan atractivo es su interfaz digital eliminado procesos intermedios de conversión de señales. También posee una enorme sencillez de conexión y manejo mediante un cable que no precisa terminadores ni complicadas configuraciones y, además, permite la conexión en caliente. Asimismo, posee una arquitectura escalable, con unos anchos de banda estándar de 100, 200 y 400 Mbps e, incluso, admite múltiples velocidades en un único bus. Igualmente, acepta cualquier dispositivo independientemente del ancho de banda que ése requiera, ya que el sistema, como ya hemos mencionado, es capaz de correr a diferentes velocidades. Y, por último, cabe destacar que se trata de un bus no propietario.

Otra de las capacidades que aporta el estándar FireWare es la flexibilidad y versatilidad con la que puede funcionar, ya que soporta tanto la implementación lineal, como a través de sistemas en árbol. Con esas premisas, podemos encontrar diferentes dispositivos unidos todos ellos en serie o complicados sistemas en árbol donde conviven conexiones punto a punto junto con bifurcaciones hacia otros periféricos con un máximo de 63 dispositivos conectados al mismo tiempo.

En definitiva, este bus de alta velocidad va a significar un punto de inflexión en el desarrollo de estándares para las comunicaciones entre dispositivos. Lamentablemente el mercado actual ofrece muy pocas soluciones que soporten este nuevo estándar, pero no dudamos que en un corto espacio de tiempo se dispondrá de una infinidad de productos y soluciones amparadas en el IEEE 1394.





Internet Criminología Mi web en la Universidad de Murcia
Fraudes médicos y pseudociencia