LA TECNOLOGÍA DE LA INFORMACIÓN Y LOS MEDIOS DE COMUNICACIÓN

Concepto general de la tecnología de la información

Tecnologías  de la información y la comunicación (TIC) es un concepto que tiene dos significados. El término “tecnologías de la información” se usa a menudo para referirse a cualquier forma de hacer cómputo. Como nombre de un programa de licenciatura, se refiere a la preparación que tienen estudiantes para satisfacer las necesidades de tecnologías en cómputo y comunicación de gobiernos, seguridad social, escuelas y cualquier tipo de organización ACM. (Kuhn 2014 p. 137).

Planificar y gestionar la infraestructura de TIC de una organización es un trabajo difícil y complejo que requiere una base muy sólida de la aplicación de los conceptos fundamentales de áreas como las ciencias de la computación, así como de gestión y habilidades del personal. Se requieren habilidades especiales en la comprensión, por ejemplo de cómo se componen y se estructuran los sistemas en red, y cuáles son sus fortalezas y debilidades. En sistemas de información hay esenciales preocupaciones de software como la fiabilidad, seguridad, facilidad de uso y la eficacia y eficiencia para los fines previstos, todas estas preocupaciones son vitales para cualquier tipo de organización (Kernighan 2014 p. 195).

Los profesionales de TIC emplean correctamente los conocimientos, prácticas y experiencias para atender tanto la infraestructura de tecnología de información de una organización y las personas que lo utilizan. Toman la responsabilidad de la selección de productos de hardware y softwareadecuados para una organización. Se unen los productos con las diversas obligaciones y la infraestructura organizativa, la instalación, la adaptación y el mantenimiento de los sistemas de información, proporcionando así un entorno seguro y eficaz que apoya las actividades de los usuarios del sistema de una organización. En TI, la programación a menudo implica escribir pequeños programas que normalmente se conectan a otros programas existentes (June  2014 p. 134).

El conjunto de recursos, procedimientos y técnicas usadas en el procesamiento, almacenamiento y transmisión de información, se ha matizado de la mano de las TIC, pues en la actualidad no basta con hablar de una computadora cuando se hace referencia al procesamiento de la información. Internet puede formar parte de ese procesamiento que posiblemente se realice de manera distribuida y remota. Y al hablar de procesamiento remoto, además de incorporar el concepto de telecomunicación, se puede estar haciendo referencia a un dispositivo muy distinto a lo que tradicionalmente se entiende por computadora pues podría llevarse a cabo, por ejemplo, con un teléfono móvil o una computadora ultra-portátil, con capacidad de operar en red mediante una comunicación inalámbrica y con cada vez más prestaciones, facilidades y rendimiento (Malbernat, 2010 p. 97).

Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se dispone de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua. (Annan, 2003 p. 86)

Evolución histórica de la informática

El término informática, de origen francés, proviene de información automática. En este sentido, la Académica francesa lo define como “ciencia del tratamiento racional y automático de la información, considerando esta como soporte de los conocimientos humanos y de las comunicaciones, en los campos técnico, económico y social.

La idea de tratamiento automático de la información también se pone de manifiesto en la definición que de la palabra “informática” ofrece el Diccionario de la Real Academia Española: “Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores”.

Ya en épocas muy tempranas el hombre ha intentado automatizar las tareas rutinarias, en ocasiones, de una manera inconsciente. La automática es “la ciencia que trata de la sustitución del operador humanos por el operador artificial en la ejecución de una tarea física o mental previamente programada”. Su fin es, por tanto, eliminar en lo posible la intervención del hombre en el proceso productivo.

En, aproximadamente, 50 años, la informática ha sufrido una evolución vertiginosa y,  previsiblemente, no dejara de progresar hasta alcanzar cotas actualmente insospechadas.

Para clasificar la evolución y desarrollo de la informática es preciso destacar cuatro etapas o generaciones:

1) Primera generación (1946-1957)

En esta generación de computadoras se utilizaron los tubos de vacío. El primer computador electrónico de uso general fue el ENIAC, siglas en ingles de Computador e Integrador Numérico Electrónico. Se tardó cerca de cuatro años en construirlo (1943-1946) en la escuela Moore de la universidad de Pennsyvania (Filadelfia). Su objetivo fue realizar automáticamente tablas matemáticas; la Armada de los EE.UU. financio el proyecto para obtener tablas balísticas. Contenía aproximadamente 18.000 válvula de vacío y unos 1.500 relés. Con sus dimensiones considerables (10 m. x 16 m. y 30 toneladas de cables, válvulas y acero), pues ocupaba una gran habitación, funcionaba a “paso de tortuga” (tan solo podía almacenar 20 números de diez dígitos en su memoria y procesarlos a 100 KHz por segundo), utilizaba tarjeta perforadas y emitía toda clase de ruidos.

Pero del ENIAC se ha dicho que constituye el primer acontecimiento de la era de la información. Y así fue; en 50 años se ha conseguido crear ordenadores con una memoria de 2 Gigabytes y un microprocesador de muy reducido tamaño a una velocidad de 3 GHz aproximadamente.

 Los ordenadores de la primera generación no disponían de sistema operativo o, lo que es lo mismo, de software que gestionara su funcionamiento, debiéndose introducir y controlar la ejecución de programas manualmente. Al principio, además, se programa en lenguaje máquina, con lo que cada instrucción estaba constituida por una secuencia de números. Más adelante, y dentro de esta misma etapa, aparecieron los primeros lenguajes simbólicos denominados ensambladores.

2) Segunda generación (1955-1964)

En 1948 se desarrolló, en los laboratorios de la Bell Telephone, el transistor con la idea de que este sustituyera a las anteriores válvulas de vacío que, debido a las elevadas temperaturas que llegaban a alcanzar, sufrían continuas averías.

Esta época se caracterizó, asimismo, por la utilización masiva de núcleos de ferrita como elementos básicos de la memoria principal. Este tipo de memoria estaba constituida por mallas rectangulares de hilos conductores dispuestos en filas y columnas; en cada vértice se encontraba un núcleo de ferrita. Al pasar corriente eléctrica por cada uno de los hilos, la ferrita se magnetizaba, almacenando un bit de información (por ejemplo, un 1); si la corriente pasaba en sentido contrario, se almacenaba otro bit (por ejemplo, un 0). De este modo, cada nucleo de ferrita almacenaba un bit.

Por último, en esta segunda generación IBM desarrollo, entre 1954 y 1957, el primer lenguaje de programación de alto nivel: el FORTRAN (Formula Translator o traductor de fórmulas). Se trataba de un lenguaje proyectado para la programación de cálculos científicos y técnicos.

3) Tercera generación (1965-1070)

En 1958, Texas Instruments concibió la idea de realizar un círculo integrado monolítico, el cual se empezó a comercializar en 1961, constituyendo la base de los actuales circuitos electrónicos integrados. La  tecnología integrada hizo posible la construcción, en un solo bloque, de un circuito que realizaba una función electrónica compleja. Los elementos que lo componían se

Conectaban directa e inseparablemente. La aportación de esta nueva tecnología se puede resumir en cuatro puntos:

  • Su bajo coste, que llevo a diseñar circuitos cada vez más complejos y perfectos.
  • Los tiempos de transmisión de señales mínimos, al estar los componentes muy próximos.
  • Reducción del consumo de energía y fiabilidad.
  • Reducción de los costes, puesto que se podían fabricar en serie.

Paralelamente se fueron introduciendo las memorias realizadas con circuitos integrados, sustituyendo a las anteriores constituida por núcleos de ferrita.

En cuanto a las computadoras, en esta etapa se desarrollan grandes ordenadores como servidores de terminales locales o remotas. En 1963, la empresa Digital EquipmenCorporation comenzó a comercializar equipos informáticos más pequeños, llamados minicomputadores, que ya incorporaban la tecnología de los circuitos integrados. Las prestaciones de estos equipos llegaron a ser comparables a las de los mayores computadores de la segunda generación.

Por lo que respecta al software, se difundieron sistemas operativos diseñados por el propio fabricante del hardware, instalándose en cada uno de los ordenadores que formaban parte de una red. A mitad de los años 60 surgieron, además, nuevos lenguajes de programación de alto nivel como el BASIC, Pascal, etc.

4) Cuarta generación (1971 en adelante)

Esta cuarta generación se caracteriza por los denominados sistemas abiertos. En etapas anteriores era el mismo fabricante de hardware quien suministraba al mismo tiempo el software; en cambio, ahora es un tercero quien era el software, pudiendo el usuarios elegir entre distintos programas además de otros elementos o dispositivos (impresoras, discos duros, monitores). Se utilizan circuitos integrados más avanzados, soportando mayores velocidades a la par que disminuye su tamaño.

En 1981 IBM lanza al mercado el PC (Personal Computer) como una aventura marginal, pues continuaba vendiendo sus “computadoras-armario). Posteriormente, y tras el éxito del IBM PC, surgen reproducciones clónicas.

Esta cuarta y última generación se caracteriza por los denominados sistemas abiertos. En etapas anteriores era el mismo fabricante de hardware quien suministraba al mismo tiempo el software; en cambio, ahora es un tercero quien crea el software, pudiendo el usuario elegir entre distintos programas además de otros elementos o dispositivos (impresoras, discos duros, monitores). Se utilizan circuitos integrados más avanzados, soportando mayores velocidades a la par que disminuye su tamaño.

Quinta generación (1981 – 199?). En 1981, los principales países productores de nuevas tecnologías (Fundamentalmente Estados Unidos y Japón) anunciaron una nueva generación, cuyas características principales iban a ser:

  1. Utilización de componentes a muy alta escala de integración (VLSI)
  2. Computadoras con Inteligencia artificial
  3. Utilización del lenguaje natural (lenguajes de quinta generación).
  4. Interconexión entre todo tipo de computadoras, dispositivos y redes (redesintegradas) y La gran red de redes Internet.
  5. Integración de datos, imágenes y voz (entorno multimedia).
  6. Redes neuronales
  7. Realidad virtual.
  8. Etcétera.

Tipos de usuarios de las TIC

Las personas que están en contacto con las TIC se llaman usuarios. Si el usuario es una persona que está muy familiarizada con el uso de las TIC, está debidamente formada y tiene habilidades digitales (e-skills) desarrolladas, se denomina usuario avanzado. Cuando el usuario esta en disposición de programar ordenadores, de forma profesional, se llama programador. Si además tiene capacidad para diseñar un programa, una aplicación informática o un sistema de información complejo, se denomina analista de aplicaciones o analista de sistemas. Por el contrario, cuando una persona no tiene un ningún contacto con las TIC, se llama analfabeto digital.

Con la aparición de las TIC, también surgieron nuevas profesiones, como la de consultor TIC, ingeniero de software, analista, diseñador multimedia, diseñador web, diseñador 3D, webmaster, ingeniero de red, técnico de redes, técnico comercial TIC, operador de consola, picado de datos, monitor de trafico de red, instalador de telecomunicaciones, profesor de informática, técnico de mantenimiento informático, reparador de móviles, teletrabajador, etc.

Según las estimaciones de la Comisión Europea, se van a generar más de 300000 puestos de trabajo relacionados con las TIC en la Unión Europea hasta 2010. En las estadísticas globales se maneja también la cifra de más de cien millones de teletrabajadores en el 2006 en el mundo, incrementando exponencialmente la cifra para los próximos años.

Telecomunicaciones

Las telecomunicaciones abarcan todas las técnicas, normas y procesos relativos a la comunicación a distancia, desde la transmisión de voz por teléfono, voz y música por radio, imágenes y voz por televisión (además de la transmisión del teletexto y de datos en televisión digital), todo tipo de datos por las redes celulares, de satélite, redes de cable o redes inalámbricas.

Las telecomunicaciones se basan en un modelo universalmente aceptado para  la transmisión de datos que es el llamado modelo OSI de 7 capas, que establece el siguiente protocolo para el envío y recepción de datos:

Capa 7 (capa de  aplicación): encargada de traducir los datos que recibe de la aplicación del usuario.

Capa 6 (capa de presentación): realiza tareas de compresión, descomprensión y encriptación de datos.

Capa 5 (capa de sesión): gestiona el dialogo entre equipos, sincronizando la comunicación.

Capa 4 (capa de transporte): vigila la calidad de la transmisión y del mensaje que se va a transmitir; controla también el orden de llegada de los datos y gestiona la retransmisión si hay errores.

Capa 3 (capa de red): gestiona el sistema de direcciones de la red y realiza el encaminamiento de los datos.

Capa 2 (capa de enlace): gestiona la fiabilidad de la transmisión y la disponibilidad de la línea.

Capa 1 (capa físico): traduce la información que se va a transmitir a señales físicas para la transmisión, dependiendo del medio físico que se utilice. Hace lo contrario en la recepción.

En telecomunicaciones se manejan algunos conceptos fundamentales, relacionados, entre otros, con la capacidad del canal de transmisión y la forma de transmisión.

Para determinar la capacidad del canal de transmisión, se maneja el concepto de ancho de banda, que es el rango de frecuencias designadas a un canal de transmisión; es el espectro del canal. En transmisión de datos, el ancho de banda se identifica con la velocidad de transmisión dentro del canal, es decir, a mayor ancho de banda, mayor velocidad.

La unidad de medida del rendimiento y la capacidad de las redes de comunicación, tanto LAN como WAN, es la velocidad de transmisión en bits por segundo (baudio). Las unidades superiores que se manejan en transmisión de datos, son el Kbps o Kabudio, el Mbps, el Gbps, etc.

Comparativamente, un modem normal conectado a la RTB puede recibir datos como máximo a 56 Kb/s, un modem ADSL+ puede recibir datos a un máximo de 24 Mbps, mientras el tráfico por ATM de las operadoras de telecomunicaciones circula a 622 Mbps o incluso a 1,5 Gbps.

Un ancho de banda superior a 2 Mbps, se llama banda ancha y menor de esa velocidad se denomina banda estrecha.

Segúnla forma de transmisión, la comunicación puede ser sincronía, asíncrona, full-duplex, half-duplex, simétrica o asimétrica.

Síncrona: la forma de transmisión es bit a bit, de forma sincronizada entre emisor y receptor.

Asíncrona: la forma de transmisión es byte a byte de forma aleatoria, procedidos por las señales de sincronización start-stop.

Full-duplex: tipo de transmisión en la que cada parte puede enviar y recibir datos simultáneamente.

Half-duplex: tipo de transmisión en la cual cada parte puede enviar y recibir, pero no simultáneamente.

Simétrica: el ancho de banda de una transmisión es el mismo en elenvió de datos, también llamada subida de datos, y en la recepción, también denominada bajada de datos.

Asimétrica: el ancho de bandade una transmisión es diferente en la subida de datos y en la bajada de datos.

En las últimas décadas se han producido la convergencia entre la informática, las telecomunicaciones y los medios de comunicación de masas.

Asimismo, en una red, se define a un nodo como un dispositivo cualquiera que está conectado a la red, siempre y cuando tenga una dirección definida, cuya función principal es conmutar circuitos o mensajes.

Un router es un nodo que asumen las funciones de encaminador del tráfico de la red hacia los nodos destino, siguiendo la ruta más apropiada.

Un modem es un dispositivo de comunicaciones que modifica una señal digital en analógica en el origen (modulacion) y también transforma una señar analógica en digital en el destino (demodulación), de manera que las señales analógicas puedan transmitirse por las líneas de teléfono convencionales. Existen también módems para la RDSI, para las redes de operadores de cable y para ADSL. Los módems pueden conectar dos ordenadores entre si  punto a punto o pueden conectar un equipo a una red pública para el acceso a Internet.

En aplicaciones empresariales se utiliza el FrameRelay como forma de conexión permanente punto a punto y para el acceso a Internet, pudiendo establecer circuitos virtuales permanentes o conmutados, con ancho de banda garantizado (2 Mbps o más).

En zonas de escasa cobertura por razones de la orografía del terreno, se utilizan alternativas como la conexión vía satélite, o soluciones combinadas satélite y Wimax.

Tipos de medios de comunicación Naval

Mayores avances en la década de 1940.

– El oscilador de cristal de cuarzo.

El desarrollo del oscilador de cristal de cuarzo, permitió que los cambios de frecuencias en los transmisores, (proceso de resintonía) fuera algo sencillo, tan simple como cambiar un cristal por otro. El único inconveniente de este sistema era que cada buque debía llevar a bordo, cientos de cristales cortados para oscilar a diferentes frecuencias. (Vásquez 2003 p. 6).

– Receptor superheterodino.

Los principios heterodinos fueron inventados por ReginaldFessenden, un renombrado y prolífico inventor canadiense nacido en 1866 en la localidad de Milton, quien tras cursar sus estudios en Lennoxville, comenzó a trabajar en dos de las empresas históricas de la electrónica, Edison y Westinghouse, y muy joven, a los 26 años, dio clases en la Western University de Pensilvania.

Pero por lo que Fessenden debería haber ocupado un lugar más destacado en la historia de la radio es por haber realizado la primera transmisión de fonía a larga distancia en la Navidad de 1906.

Previamente, en 1903, ya había completado experimentos que le confirmaron que sus estudios iban por buen camino al llegar a emitir una señal hablada a una distancia de 50 millas, aunque serían tres años después cuando perfeccionaría su descubrimiento.

Su experiencia de 1906 consistió en poner en contacto a varios buques que se encontraban en el Atlántico con una estación ubicada en Brant Rock (Massachussets). Los tripulantes de aquellos navíos escucharon sorprendidos y por primera vez cómo una voz humana podía recorrer el espacio para salir por un altavoz, deseándoles una feliz Navidad, al tiempo que les deleitaba con unos acordes de violín.

El receptor superheterodino, producto de los estudios de Fessenden (Receptor en que las oscilaciones de la onda transmitida se combinan con las de un oscilador local para obtener una oscilación de frecuencia intermedia, que es la que se utiliza para recibir la señal), vino a mejorar la selectividad e incrementar la intensidad de la señal recibida.

– El transistor.

Sería imposible no considerar la importancia del transistor en el desarrollo de las telecomunicaciones, diseñado por los laboratorios de la Bell Telephone en 1948. Éste no sólo fue considerablemente más reducido en tamaño que la válvula, sino que también consumía menos energía.

Al respecto, hubo importantes disminuciones en el tamaño de los equipos de radio. Por ejemplo, los buques de mediados de 1940 comúnmente llevaban un transmisor de onda media y otro de HF, ambos ocupaban una superficie entre 13 y 15 metros cuadrados, con un peso aproximado de 4.5 toneladas. Un equipo moderno de transmisión de alta potencia, cubre ambas bandas, montado en una estructura estándar (rack) de 19 pulgadas, con un peso aproximado de 25 kilos dependiendo del fabricante, pudiendo además cumplir simultáneamente las funciones de transmisión y recepción (Transceptor).

Comunicaciones satelitales.

Hasta los comienzos de la era espacial, a fines de los años 1950, las comunicaciones navales de larga distancia fueron realizadas principalmente en HF, siendo siempre vulnerables a las variaciones de las condiciones ionosféricas, niveles de ruido local, radio interceptación y radio localización. Sin embargo, con el advenimiento de los satélites de comunicaciones, éstos proveyeron enlaces en VHF, con capacidades similares a los de microondas, por lo cual, debido a su ubicación espacial y geoestacionaria, cada satélite puede cubrir un tercio de la superficie de la tierra. Su desarrollo involucró tanto a las comunicaciones militares como a las civiles (Vásquez 2003 p. 8).

La puesta en órbita de los satélites comerciales INMARSAT, ha permitido su utilización por parte de las unidades navales, accediendo a distintos servicios pagados, tales como telefonía, fax, télex, video conferencia, traspaso de datos y mensajería, entre otros. Asimismo, otras alternativas de satélites han permitido enlazar a lugares geográficamente aislados, como por ejemplo a la base antártica “Arturo Prat” desde el 6 de febrero de 1997, al cumplir 50 años de su creación, permitiéndole acceder en forma directa a telefonía naval y pública, radio, televisión, internet y mensajería naval.

A pesar de las ventajas de los satélites de comunicaciones, se ha comprobado que en el caso de hostilidades, especialmente civiles o comerciales (empleados por aquellos países que no tienen acceso a satélites militares), son vulnerables a las interferencias físicas y eléctricas, además de saturación por exceso de tráfico. Es por esta razón, que últimamente el péndulo está variando en favor de las comunicaciones en HF para unidades a flote, con énfasis en las Contramedidas Electrónicas (CME), Contra-Contra Medidas Electrónicas (CCME) y otras técnicas para su protección, aseguramiento y calidad del enlace.

– Láser y fibra óptica.

La historia de la comunicación por fibra óptica es relativamente corta. En 1977, se instaló un sistema de prueba en Inglaterra; dos años después, se producían ya cantidades importantes de pedidos de este material.

Antes, en 1959, como derivación de los estudios en física enfocados a la óptica, se descubrió una nueva utilización de la luz, a la que se denominó rayo láser, que fue aplicado a las telecomunicaciones con el fin de que los mensajes se transmitieran a velocidades inusitadas y con amplia cobertura.

Sin embargo esta utilización del láser era muy limitada debido a que no existían los conductos y canales adecuados para hacer viajar las ondas electromagnéticas provocadas por la lluvia de fotones originados en la fuente denominada láser.

Fue entonces cuando los científicos y técnicos expertos en óptica dirigieron sus esfuerzos a la producción de un conducto o canal, conocido hoy como la fibra óptica. En 1966 surgió la propuesta de utilizar una guía óptica para la comunicación.

Esta forma de usar la luz como portadora de información se puede explicar de la siguiente manera:

  • Se trata en realidad de una onda electromagnética de la misma naturaleza que las ondas de radio, con la única diferencia que la longitud de las ondas es del orden de micrómetros en lugar de metros o centímetros.
  • En poco más de 10 años la fibra óptica se ha convertido en una de las tecnologías más avanzadas que se utilizan como medio de transmisión de información. Este material llego a revolucionar los procesos de las telecomunicaciones en todos los sentidos, desde lograr una mayor velocidad en la transmisión o ancho de banda y disminuir casi en su totalidad los ruidos y las interferencias hasta multiplicar las formas de envío en comunicaciones y recepción por vía telefónica. (El ancho de banda es la máxima cantidad de datos que pueden pasar por un camino de comunicación en un momento dado, normalmente medido en segundos. Cuanto mayor sea el ancho de banda, más datos podrán circular por ella al segundo).
  • Las fibras ópticas son filamentos de vidrio de elevada pureza extremadamente compactos; el grosor de una fibra es similar a la de un cabello humano. Fabricadas a alta temperatura con base en silicio, su proceso de elaboración es controlado por medio de computadoras, para permitir que el índice de refracción de su núcleo, que es la guía de la onda luminosa, sea uniforme y evite las desviaciones. Entre sus principales características se puede mencionar que son compactas, ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión y un alto grado de confiabilidad debido a que son inmunes a las interferencias electromagnéticas de radiofrecuencia. Las fibras ópticas no conducen señales eléctricas por lo tanto son ideales para incorporarse en cables sin ningún componente conductivo y pueden usarse en condiciones peligrosas de alta tensión. Tienen la capacidad de tolerar altas diferencias de potencial sin ningún circuito adicional de protección y no hay problemas debido a los cortos circuitos. Tienen un gran ancho de banda, que puede ser utilizado para incrementar la capacidad de transmisión con el fin de reducir el costo por canal; de esta forma es considerable el ahorro en volumen en relación con los cables de cobre.
  • Con un cable de seis fibras se puede transportar la señal de más de cinco mil canales o líneas principales, mientras que se requiere de 10.000 pares de cables de cobre convencional para brindar servicio a ese mismo número de usuarios, con la desventaja de que este último medio ocupa un gran espacio en los conductos y requiere de grandes volúmenes de material, lo que también eleva los costos.
  • Comparado con el sistema convencional de cables de cobre donde la atenuación de sus señales, es de tal magnitud que requieren de repetidores cada dos kilómetros para regenerar la transmisión; en el sistema de fibra óptica se pueden instalar tramos de hasta 70 kilómetros, sin que haya necesidad de recurrir a repetidores lo que hace este medio más económico y de fácil mantenimiento.
  • Originalmente, la fibra óptica fue propuesta como medio de transmisión debido a su enorme ancho de banda; sin embargo, con el tiempo se ha planteado para un amplio rango de aplicaciones además de la telefonía, automatización industrial, computación, sistemas de televisión por cable y transmisión de información de imágenes astronómicas de alta resolución, entre otras.
  • Su empleo, se ha aplicado ampliamente en la red fija de telecomunicaciones navales, permitiendo la transferencia, con alta velocidad, del tráfico de voz y datos a lo largo de todo el territorio nacional y cuyo primer gran paso de esta red hacia la modernidad fue la puesta en marcha del SNTDM (Sistema
  • Naval de Transferencia de Documentos y Mensajes) el 15 de marzo de 1995, en ceremonia efectuada en el Servicio de Telecomunicaciones de la Armada, reemplazando al antiguo sistema de teletipo, controlado por el computador MARS desde el Centro de Telecomunicaciones Navales de Santiago, que se mantuvo en servicio por un tiempo cercano a los 20 años.

Sistemas de comunicaciones integradas (ICS).

Con el inicio de la guerra electrónicamente controlada, se incrementaron los requerimientos de circuitos de comunicaciones, ante lo cual, la marina inglesa evidenció la necesidad de desarrollar un sistema capaz de integrar y controlar dichos circuitos.

El Sistema Integrado de Comunicaciones (ICS), fue introducido en la marina inglesa a comienzos de 1960, utilizando una arquitectura revolucionaria, con equipos tales como receptores de banda lateral única y transmisores, trabajando con antenas comunes, antenas de banda ancha y monitoreo por control remoto centralizado. Las primeras unidades de nuestra Armada que contaron con este sistema (ICS-2), fueron las fragatas Condell y Lynch, lo que conllevó un nuevo concepto de operación en las telecomunicaciones navales a bordo; posteriormente se incorporaron los DLGs tipo County que traían instalado el primer modelo (ICS-1). Una versión más avanzada (ICS-3) está instalada a bordo de las fragatas inglesas tipo 22 (e.g. HMS Sheffield).

La presente generación de Sistemas Integrados de Comunicaciones, corresponde a un conjunto de sistemas y equipos, capaces de operar con subsistemas de voz y datos, permitiendo el tráfico de comunicaciones interno y externo, integrados a través de servidores y redes de fibra óptica de alta velocidad (600 Mbps), centralizadamente controlados por software desde consolas de operación ubicadas en la Sala de Radio y CIC, de fácil mantenimiento, de reducido número de operadores y mantenedores a bordo. De acuerdo a este concepto, en el desarrollo del proyecto de construcción de fragatas en La República Dominicana, se han considerado requerimientos que satisfagan las necesidades de comunicaciones, acorde con los cambios tecnológicos en esta área y con ello dar un salto significativo hacia la modernidad en los sistemas de comunicaciones de las unidades a flote.

Un ICS de última generación es capaz de integrar y controlar centralizadamente los siguientes subsistemas de comunicaciones:

Internos: intercom, cubierta de vuelo, teléfonos automáticos, teléfonos magnéticos, difusión general y sectorizada, entretenimiento y entrenamiento, circuito cerrado de TV, grabación de líneas de audio.

Externos: transmisión y recepción en MF/HF, transmisión, teléfono submarino y recepción en VHF/UHF, satelital, GMDSS, proceso y manejo de mensajería.

Sistema de información

Los sistemas de información, basados en las TIC, se utilizan para gestionar la información y el conocimiento en usos particulares y en las organizaciones socioeconómicas.

Los datos debidamente procesados se transforman en información de utilidad. La información analizada, almacenada, organizada, estructurada, transmitida, reutilizarla y compartida genera conocimiento. Un sistema de información es un conjunto de componentes físicos (hardware), lógicos (software) y humanos (usuarios) que intervienen en el procesamiento de datos, de información y de conocimiento.

A continuación, se explicada como se estructuran los datos y la información en un sistema de información.

Estructura de la información

En un sistema de información, los datos se representan en formato digital, es decir, en forma de valores discretos, según un código basado en un sistema de numeración, generalmente binario o en base 2, donde el 0 representa el estado físico apagado y el 1, el estado físico encendido.

En el sistema binario, la unidad de medida es el bit (digito binario), que solo puede tener dos valores representados por las cifras 0 y 1.

A modo de ejemplo, una secuencia de numeración binaria, con su equivalencia en otros sistemas de numeración como el decimal o el hexadecimal, sería como sigue:

Binario Decimal Hexadecimal
0000 0 0
0001 1 1
0010 2 2
0011 3 3
0100 4 4
0101 5 5
0110 6 6
0111 7 7
1000 8 8
1001 9 9
1010 10 A
1011 11 B
1100 12 C
1101 13 D
1110 14 E
1111 15 F

En esta tabla hemos incluido también la equivalencia en el sistema hexadecimal o en base 16, que se compone de valores entre el 0 y el 15 decimal, representadas por las cifras alfanuméricas 0,1, 2, 3, 4, 5, 6, 7, 8 o 9 y A, B, C, D, E o F.

Hay una correspondencia directa entre la numeración binaria y la hexadecimal, ya que,  por convenio, los bits se agrupan en una unidad mayor de información llamada octeto o byte, formado por 8 bits, que es capaz de representar un carácter informático mediante un código internacional llamado ASCII. La correspondencia es que un byte binario se puede representar con dos cifras hexadecimales.

Internet

Internet es la red de redes, es decir, una maraña de redes (LAN y WAN) interconectadas entre sí en el mundo que  permite que circulen datos de todo tipo. Los paquetes de datos circulan por diferentes rutas o segmentos de la Red, de manera que puedan llegar todos los datos a su destino aunque algunos segmentos de la Red fallen.

Internet está formado por redes físicas y por una serie de servicios para los usuarios. Nació en los años sesenta para usos militares y científicos. Su expansión masiva se dio a partir de los años noventa, cuando se creó la World Wide Web y se empezó a utilizar por millones de usuarios en el mundo entero.

De los apenas diez mil servidores que había en la Red en 1987, se han pasado a más de cien millones de servidores actuales y de unos cientos de usuarios a másde mil millones de usuarios en 2007.