adqa

¿Qué es un dominio de internet?

Un dominio de internet es el nombre, único e irrepetible, de un sitio web. Es la dirección a la que se debe acceder para ingresar a un sitio web en particular, y como tal no puede haber dos iguales en el mundo. Cuando un usuario accede a un dominio en un navegador, lo que está haciendo es, básicamente, pedirle al navegador que muestre toda la información relativa a ese dominio en particular (información que siempre estará alojada en un servidor).

Los dominios, o nombres de dominio, son en realidad representaciones textuales de direcciones IP numéricas, y surgen como solución práctica al problema de recordar estas complicadas secuencias de números. Así, los dominios, cuando están disponibles, se pueden registrar a través de un servicio autorizado de registro, aunque nadie puede ser el dueño definitivo de un dominio, sino que debe renovar su posesión periódicamente (generalmente, cada año). Uno de los principales organismos encargado de regular estos servicios de registro de dominios de internet es la Corporación de Internet para la Asignación de Nombres y Números (ICAAN, por sus siglas en inglés).

Una de las confusiones más comunes que se producen al hablar de dominios de internet es la de definirlos a estos como sinónimos de URL. La diferencia entre ambos es que una URL (localizador de recursos uniforme) es la dirección completa de un sitio web determinado, en cuya composición se incluye el nombre de dominio, entre otros elementos. Si tomamos, por ejemplo, la URL “https://twitter.com/twitter”, el nombre de dominio es únicamente “twitter.com”.

Los dominios de internet, a su vez, se componen de la etiqueta o segundo nivel, que es el nombre propiamente dicho, y la extensión o primer nivel, que es el punto seguido de una combinación de caracteres presente en todos los dominios. Volviendo al ejemplo anterior, en el dominio “twitter.com”, “twitter” es la etiqueta y “.com” es la extensión. La extensión es una parte fundamental del dominio, ya que pueden existir dominios con la misma etiqueta, diferentes únicamente en cuanto a la extensión, y que, por lo tanto, conectarán a sitios web diferentes.

De esta manera, los dominios de internet se clasifican, según su extensión, en:

  • Dominios de Primer Nivel Genéricos: son los más comunes y los más recomendables para la mayoría de los sitios web, ya que son fáciles de recordar por parte de los visitantes. Entre ellos se incluyen .com, .net, .org y .info.
  • Dominios de Primer Nivel Geográficos: son los que se utilizan para referir a una región o un país en particular, generalmente el lugar en donde opera el sitio web en cuestión. Entre ellos se incluyen .es (España), .ar (Argentina), .uk (Reino Unido) y .mx (México).
  • Dominios de Primer Nivel Patrocinados: son los propuestos por agencias, organizaciones o comunidades particulares, que se ocupan de establecer sus reglas de uso. Entre ellos se incluyen .edu (que utilizan muchas organizaciones educativas), .gov (utilizado por organizaciones gubernamentales), .aero (que utilizan dentro de la industria aeronáutica) y .coop (que utilizan las sociedades cooperativas).
  • Dominios de Tercer Nivel: son los que combinan los dominios de primer nivel genérico y los de primer nivel geográfico. Las combinaciones son prácticamente infinitas, pero a modo de ejemplo, se pueden contar .com.es, .com.ar, .org.mx y .net.uk.

¿Qué es un dominio de internet? Leer más »

¿Qué es WordPress, y por qué es el CMS más utilizado?

WordPress es un sistema de gestión de contenidos (CMS, por sus siglas en inglés), es decir, una plataforma que posibilita la creación y el manejo de sitios web, incluso a personas que no cuentan con ningún conocimiento de programación o diseño web. Su interfaz cómoda y flexible permite crear y editar contenido fácilmente dentro del sitio web, trabajando tanto sobre el backend (lo que sucede “detrás de la pantalla”, lo que el visitante no ve), como sobre el frontend (la “cara visible” del sitio web, con la que interactúa el visitante).

Desde un punto de vista técnico, WordPress es un software de código abierto que utiliza un sistema de base de datos MySQL y los lenguajes de programación PHP, CSS y HTML. Su versatilidad se desprende de la posibilidad de utilizar plantillas o temas, que son estructuras web preestablecidas; plugins, que son softwares simples que se insertan en un sitio web para añadir una funcionalidad específica; y código: cualquier persona con conocimiento de PHP, CSS, HTML o, incluso, JavaScript, puede crear y editar el código de su propio sitio web para lograr un nivel aún mayor de personalización, lo que significa que las posibilidades dentro del entorno de WordPress son prácticamente ilimitadas.

WordPress no es el único CMS que existe, pero sí el más popular: basta decir que el 43,2% de los sitios web en Internet están hechos con WordPress, a la vez que este domina una cuota del mercado de CMS del 65,2%1https://blog.hubspot.com/website/wordpress-stats. En la práctica, esta popularidad se traduce en una gran cantidad de plantillas o temas (más de 31.000) y plugins (más de 60.000), gratuitos o pagos, disponibles al público en general; lo que es, a su vez, una de las principales razones de su facilidad de uso y, consecuentemente, de su popularidad, pero no la única.

Lo que hace a WordPress el CMS más utilizado en el mundo año tras año es su versatilidad. Si bien en un principio fue concebido como una plataforma para la creación y el manejo de blogs o sitios web enfocados en contenidos, hoy en día, gracias al desarrollo de algunos de los plugins y plantillas más potentes del mercado, se puede utilizar WordPress para crear y administrar tiendas en línea, sitios educativos, sitios institucionales o portfolios, solo por nombrar algunos ejemplos.

Otras razones de peso que explican la masiva popularidad de WordPress son:

  • Su enfoque SEO (Optimización de Motores de Búsqueda), que facilita el posicionamiento de sus sitios web en buscadores como Google o Ecosia.
  • Su facilidad de adaptación móvil, lo que es fundamental considerando que más de la mitad del tráfico web provino de dispositivos móviles en 20212https://www.statista.com/statistics/277125/share-of-website-traffic-coming-from-mobile-devices/.
  • Su transparencia y seguridad, lo que cobra especial importancia cuando se trata de tiendas en línea.· Su interfaz de usuario: tanto en la etapa de creación y diseño del sitio web, como en la de administración y manejo de sus páginas, secciones y contenidos, todo está dispuesto de manera que sea accesible para cualquier persona, independientemente de sus conocimientos previos en relación a desarrollo web.

¿Qué es WordPress, y por qué es el CMS más utilizado? Leer más »

¿Qué se tiene que controlar en una auditoría de seguridad?

A medida que más empresas se vuelcan a la digitalización de sus operaciones, más necesario se vuelve mantener las redes informáticas seguras. Una auditoria de seguridad es un estudio detallado de todos los componentes de los sistemas informáticos de una empresa, que se realiza con el fin de encontrar los errores, debilidades y vulnerabilidades que puedan, potencialmente, poner en riesgo a la integridad de estos sistemas, de su funcionamiento y de la información que contienen.

De esta manera, se entiende que las auditorias de seguridad son especialmente importantes en el caso de las empresas que trabajan con redes informáticas, ya que estas, en caso de contar con vulnerabilidades, son puntos de acceso potenciales para distintos tipos de ciberataques, como el ransomware, o secuestro de datos, que es uno de los más comunes (solo en el año 2020 hubo más de 300 millones de ataques de este tipo en el mundo 1 https://www.statista.com/statistics/494947/ransomware-attacks-per-year-worldwide/), en el que el intruso restringe el acceso a secciones o archivos dentro de una red y pide un rescate monetario a cambio de retirar las restricciones.

A la hora de realizar una auditoría de seguridad, los aspectos más importantes a controlar son las políticas de seguridad informática de la empresa y su correcto cumplimiento por parte del personal; la eficiencia de los sistemas informáticos (servidores, routers, dispositivos, etcétera), tanto en cuanto a hardware como a software; los protocolos de seguridad informática existentes: softwares antivirus y antimalware, reglas de firewall, actualizaciones de firmwares; y el cumplimiento de las normativas vigentes, sobre todo en cuanto al tratamiento de datos de terceros.

A su vez, existen varios tipos de auditorías de seguridad, a tener en cuenta:

  • Auditoría de redes: es el estudio de las vulnerabilidades de todos los dispositivos conectados a la red informática de la empresa, también llamados nodos de red.
  • Auditoría forense: se realiza después de haber sufrido un incidente de seguridad y su objetivo es hallar la causa de la intrusión, es decir, la vulnerabilidad del sistema que fue explotada por el intruso.
  • Auditoría web: se trata del estudio de las vulnerabilidades potenciales existentes en las aplicaciones web que se utilizan dentro de la red informática de la empresa.
  • Auditoría de código: es un análisis en profundidad a nivel de código fuente de los softwares utilizados dentro del sistema informático, en busca de posibles vulnerabilidades o errores.
  • Hacking ético: también llamado test de intrusión, es una simulación en la que se ataca al sistema como lo haría un intruso (un hacker), para detectar los posibles puntos de acceso o vulnerabilidades.

¿Qué se tiene que controlar en una auditoría de seguridad? Leer más »

¿Qué hay que tener en cuenta para crear una red wifi?

Es difícil imaginar, hoy en día, un mundo sin wifi: lo utilizamos en nuestros hogares y en nuestros trabajos y, cada vez más, en espacios públicos; es la forma más versátil y rápida de conectarse a internet, pero la realidad es que, a menos que se configure correctamente, una red wifi puede llegar a ser insegura e ineficiente. Por eso, conviene prestar atención a una serie de detalles que pueden hacer la diferencia, tanto en cuanto a rendimiento, como a seguridad.

Lo primero, incluso antes de configurar una red wifi, es considerar el uso que se le dará y el espacio en el que funcionará. Es decir que, por un lado, es fundamental determinar cuántos dispositivos se conectarán normalmente a la red y cuál será la demanda de recursos (que tanto ancho de banda se precisará); y, por otro lado, es importante tener una idea del espacio físico en el que va a funcionar la red wifi, ya que al ser una red inalámbrica es importante considerar cuestiones como las distancias y las posibles interferencias, para determinar el posicionamiento optimo del router (y, si es posible, el tipo de router, entre los cuales los routers Wi-Fi 5 y Wi-Fi 6 son los más modernos y potentes) y, de ser necesarios, de los repetidores o amplificadores de señal.

Una vez hecha la instalación de la red wifi, lo primero que hay que hacer es enfocarse en la seguridad. En este sentido, todos los routers traen una configuración preestablecida por defecto, tanto a nivel de cifrado, como de usuario y contraseña.

Para cambiar el nombre de usuario de tu red wifi (también llamado SSID) y su contraseña, así como para modificar la mayoría de las configuraciones de la red, debes acceder a la configuración del router. Para esto, debes conocer el IP de tu conexión y acceder con él a través de un navegador web:

  • Si usas Windows, puedes encontrar tu IP accediendo a la ventana de comandos ([Tecla “Windows” + “X”] y clic en la pestaña que diga administrador, en Windows 10), escribiendo el comando ipconfig y buscando el número de ocho dígitos llamado Puerta de Enlace Predeterminada.
  • En un ordenador Mac, debes abrir el menú de Apple y acceder a Preferencias del Sistema/Red/Preferencias de Red, y seleccionar “Wi-Fi” en el menú lateral.

Una vez dentro de la configuración del router, ya puedes cambiar fácilmente el SSID y la contraseña. Lo recomendable es utilizar una contraseña compleja. A modo de ilustración, a un hacker le tomaría apenas segundos descubrir una contraseña que conste únicamente de números, mientras que le tomaría varios años descubrir una que incluya mayúsculas, minúsculas, números y símbolos.

Lo siguiente a considerar, en cuanto a seguridad, es activar el cifrado o encriptación del router. La mayoría de los routers actuales traen esta configuración desactivada. Habilita un cifrado WPA2, que es generalmente el más seguro, o WPA3, que es un estándar nuevo de cifrado incluido en los routers más modernos.

Una última consideración de seguridad en cuanto al router es asegurarte de que el firmware del mismo, es decir, su sistema operativo, esté actualizado; además, si consideras que tendrás invitados conectados a la red periódicamente, es recomendable crear una red wifi secundaria con su propio nombre de usuario y contraseña.

En cuanto al rendimiento, una de las decisiones más importantes es el posicionamiento físico del router dentro del espacio en el que va a funcionar. A saber: la mayoría de los routers emiten su señal hacia abajo, por lo que la altura es un factor importante a considerar; a su vez, mientras más distancia haya entre un dispositivo y el router, más débil será la señal y más inestable la conexión. Por último, asegúrate de que no existan elementos que bloqueen la señal, dentro de lo posible (de nada serviría que dispongas el router dentro de un armario, por ejemplo).

Otra manera de mejorar el rendimiento es utilizar una configuración del router llamada Calidad de Servicio (QOS, por sus siglas en inglés), con la cual podrás priorizar uno o más dispositivos para que reciba, o reciban, una cuota desigual del ancho de banda disponible. Es decir, que puedes configurar tu router para que, sin importar cuantos dispositivos estén conectados a la red, tu ordenador reciba un 50% del ancho de banda en todo momento, de forma que tu conexión se mantenga estable.

Una última consideración: muchos routers modernos son de banda doble, lo que significa que emiten dos tipos de señales, una de 2,4 GHz y una de 5 GHz. Básicamente, la señal de 2,4 GHz tiene mayor alcance y sufre menos interferencias, pero suele ser más lenta; mientras que la señal de 5 GHz suele ser más rápida y estable, pero tiene menos alcance y es más sensible a las interferencias.

¿Qué hay que tener en cuenta para crear una red wifi? Leer más »

¿Qué significa alojamiento web?

El alojamiento web, comúnmente referido como web hosting o simplemente hosting, es el espacio virtual, dentro de un servidor, en el que se alojan los ficheros, archivos y demás contenidos de un sitio web determinado. Todo sitio web en internet está alojado en un servidor y asociado, a su vez, a una dirección o dominio de internet. Cada vez que un usuario accede a un dominio en particular, el navegador se comunica con el servidor correspondiente para extraer la información del alojamiento web referente al dominio en cuestión, para luego presentar esa información al usuario (toda esta operación, por supuesto, se lleva a cabo en cuestión de segundos).

Internet está lleno de empresas, grandes y pequeñas, que prestan servicios de alojamiento web. Estas empresas se encargan, sobre todo, de que la información de cada sitio web que alojan (es decir, la totalidad del contenido que compone a cada sitio web) se mantenga disponible al público ininterrumpidamente, a la vez de que la misma conserve su integridad y seguridad.

Los servicios de alojamiento web se suelen contratar a través de suscripciones mensuales o anuales, y pueden incluir toda una gama de servicios alternativos, como el registro del dominio, optimizaciones SEO (Optimizaciones en Motores de Búsqueda) o de velocidad, resguardos automáticos, mejoras de seguridad, etcétera. Tanto la disponibilidad de estos servicios alternativos, como la calidad del servicio mismo de alojamiento web, dependerá sobre todo del costo que el usuario esté dispuesto a pagar.

En general, lo que más se valora en un servicio de alojamiento web es la velocidad, la estabilidad y disponibilidad, es decir, que el contenido (el sitio web) esté disponible siempre, de forma consistente y ágil.

Por último, hay tres grandes tipos de alojamientos web, a tener en cuenta:

  • Alojamiento web compartido: es el tipo más económico de alojamiento web y, como su nombre lo indica, es un alojamiento web en el que dos o más sitios web comparten el mismo servidor. Es ideal para sitios pequeños y livianos y, sobre todo, sitios que no sufrirían consecuencias tan graves por eventuales interrupciones del servicio, como blogs, portfolios o sitios institucionales, por ejemplo.
  • Alojamiento web dedicado: al contrario que el alojamiento web compartido, en el alojamiento web dedicado el cliente hace uso exclusivo de un servidor en particular, razón por la que este tipo de servicio suele ser bastante más caro. Este tipo de alojamiento web es ideal para sitios grandes o pesados, o aquellos que reciben cantidades enormes de tráfico, como tiendas en línea, sitios educacionales, sitios de noticias o sitios empresariales.
  • Servidor Virtual Privado (VPS): este tipo de alojamiento web es un híbrido entre el compartido y el dedicado, ya que en este caso el cliente comparte el servidor con otros clientes, pero cuenta con un servidor virtual privado o VPS (por sus siglas en inglés), que le posibilita contar con una serie de recursos fijos que le garantizan una mayor estabilidad y calidad de servicio.
  • Alojamiento web en la nube: el alojamiento web en la nube es, en comparación, relativamente nuevo. En este tipo de alojamiento web, el cliente tiene acceso a una red de almacenamiento dispersada en una cantidad de servidores. La gran ventaja que ofrece es una capacidad prácticamente ilimitada de espacio y una velocidad de conexión superior, a la vez que la solución más confiable en cuanto a estabilidad y tiempo de alta: si un servidor llegara a caer, toda la información está resguardada en otro servidor, por lo que, en teoría, no debería caer el sitio.

¿Qué significa alojamiento web? Leer más »

¿Qué significa cloud computing?

Cloud computing, o computación en la nube, es un término que refiere a la contratación de una serie de servicios digitales a través de la nube, es decir, de servidores remotos. Está íntimamente relacionado con el proceso de digitalización de las empresas, en el cual se pasa de un modelo analógico de trabajo a uno en el que los procesos como la facturación, el control de stock, la logística o la administración de la información, por ejemplo, están digitalizados.

La digitalización de las empresas es un proceso en auge en todo el mundo, sobre todo a partir de la pandemia de Covid-19, y se proyecta que tan solo en el año 2022 se invierta, globalmente, la suma de 1,8 mil millones de millones de dólares en digitalizar los procesos de las empresas 1https://www.statista.com/statistics/870924/worldwide-digital-transformation-market-size/.

Como consecuencia de esta tendencia, las empresas precisan cada vez más de servicios más amplios, estables y potentes para crear, administrar y distribuir grandes cantidades de información, tanto dentro de las mismas como dentro de sus respectivos entornos de operación. Aquí es donde entra en juego el cloud computing: al ser un espacio digital prácticamente ilimitado compuesto por una red gigantesca y creciente de servidores físicos distribuidos en todo el mundo, los servicios alojados en la nube tienen el potencial de ofrecer soluciones a la altura de los desafíos que plantean las nuevas tendencias organizacionales.

En otras palabras, a través de los servicios de cloud computing la información y los procesos digitalizados de una empresa se vuelven accesibles globalmente (ya que no están alojados en un servidor local, sino que están disponibles globalmente a través de internet), de forma segura, rápida y estable. La globalidad de la nube hace a la información que contiene prácticamente invulnerable a imprevistos, accidentes y catástrofes.

Otro aspecto positivo del cloud computing es que en este tipo de servicios se suele pagar únicamente por lo que se utiliza, reduciendo considerablemente los costos de instalación y operación que se tendrían, por ejemplo, si se trabajara con servidores locales.

Existen 6 clasificaciones de cloud computing:

Según el nivel de propiedad del servicio:

  • Nube pública: es el tipo más común de cloud computing y refiere a la prestación de servicios alojados en servidores propiedad de los prestadores de los servicios, es decir, ajenos a la empresa, como es el caso de Amazon Web Services o Google Cloud. Este tipo de cloud computing es el más económico, si bien el cliente no tiene control sobre el entorno y, sobre todo, sobre la seguridad del mismo. Es ideal tanto para particulares, como para empresas medianas y pequeñas.
  • Nube privada: es un tipo de cloud computing mucho más costoso y refiere, simplemente, a la implementación de los servicios típicos de una nube pública, pero en un entorno privado. En este caso, los servidores (la nube), junto con toda la infraestructura necesaria, son propiedad de la empresa en cuestión (o son rentados a terceros, pero con exclusividad de uso) y, por lo tanto, esta tiene control absoluto sobre su entorno y su seguridad. Es una solución adoptada, usualmente, por grandes empresas o instituciones.
  • Nube hibrida: es un tipo de cloud computing en el que las empresas eligen utilizar la nube pública para ciertos procesos menos delicados, y la nube privada para procesos más importantes.

Según el tipo de servicio:

  • Software como Servicio (SaaS): son aplicaciones o herramientas alojadas en la nube a las que se accede a través de internet, ofrecidas por un proveedor que se encarga del mantenimiento y la administración del servicio, siendo el ejemplo más simple una casilla de correo electrónico, como Gmail, de Google.
  • Plataforma como Servicio (PaaS): en este caso, mientras que el proveedor del servicio se encarga de la infraestructura, es decir, del hardware, el cliente tiene mayor control sobre el software, lo que le permite desarrollar aplicaciones personalizadas según sus necesidades particulares.
  • Infraestructura como Servicio (IaaS): como el nombre lo indica, en este tipo de cloud computing el cliente tiene control tanto sobre la infraestructura a nivel de operativo, como sobre las aplicaciones y la totalidad del software.

¿Qué significa cloud computing? Leer más »

¿Qué es un data center?

Un Centro de Procesamiento de Datos, comúnmente referido como data center, es una infraestructura física, compuesta por ordenadores y variados equipos informáticos, cuya principal función es la recolección, el almacenamiento, el procesamiento y la distribución de datos e información de una o varias empresas.

En otras palabras, un data center es un espacio físico en el que se resguarda y administra información. Las empresas modernas, en continuo proceso de digitalización, se encuentran cada vez más seguido con la dificultad de almacenar de forma segura sus cantidades gigantescas (y crecientes) de información, generalmente en forma de datos, que son fundamentales para el normal funcionamiento de las mismas. Solo en el año 2020 se crearon, copiaron y consumieron 64,2 zettabits (o 62,2 mil millones de terabits) de datos en el mundo, y se calcula que esta cantidad aumente cerca de un 250% para el año 20251https://www.statista.com/statistics/871513/worldwide-data-created/.

Así, los data center surgen como una solución a una necesidad creciente, tanto a nivel de almacenamiento y administración de datos, como a nivel de seguridad, que es el principal enfoque de estos centros. Uno de los ejemplos más prácticos de la utilidad de los servicios de un data center es la posibilidad de restaurar toda la información de una empresa en caso de un ciberataque.
En resumen, las principales razones por las que una empresa necesita de los servicios que ofrece un data center son:

  • La posibilidad de restaurar la información ante cualquier imprevisto.
  • Mayor nivel de seguridad contra ataques maliciosos.
  • Facilidad para la distribución de grandes cantidades de información.
  • Continuidad de funcionamiento en caso de cortes energéticos.

Un data center moderno se compone, principalmente, de servidores (pueden ser desde apenas un puñado, hasta varios miles), dispuestos y ordenados en racks, conectados a internet a través de una conexión de fibra óptica; a su vez, uno de los mayores desafíos que enfrentan los data center es la creciente demanda de energía, tanto de los equipos de almacenamiento de datos, como de los equipos de refrigeración necesarios para mantener a toda la infraestructura estable. Además, muchos data center cuentan con complejos sistemas de seguridad física, desde guardias y cámaras, hasta sistemas biométricos de acceso.

Por último, una de las mediciones más importantes respecto a la calidad de un data center es su tiempo de disponibilidad a lo largo del año. Si bien lo ideal sería que no existan tiempos de baja, es decir, extensiones de tiempo en las que los servidores están fuera de servicio debido, por ejemplo, a razones de mantenimiento, la realidad es que todos los data center cuentan con tiempos de baja que, así sean ínfimos, pueden afectar a las operaciones de las empresas que utilizan sus servicios. Los tiempos de alta (es decir, que están en funcionamiento) de los data center suelen rondar entre un 99,741% y un 99,995% del tiempo.

¿Qué es un data center? Leer más »

¿Qué es el networking?

El networking es un concepto que, según el contexto en el que se utiliza, puede significar una de dos cosas: en el contexto profesional, en el que su uso se encuentra más extendido, se refiere a la creación y el mantenimiento de una red interpersonal de contactos de valor, sobre todo a través de eventos o actividades enfocadas fomentar el networking; mientras que, en el contexto informático, se refiere a la conexión de dos o más ordenadores, sistemas operativos o dispositivos informáticos, con el propósito de facilitar el intercambio de datos e información.

En una network informática, o red informática, las conexiones suelen estar dadas, bien a través de sistemas de cableado o a través de tecnologías inalámbricas, y su principal ventaja es la velocidad, consistencia y seguridad en la transferencia de información desde un punto de la red, o nodo de red, a otro. Esto sucede, básicamente, porque no hay intermediarios: la red establece un camino directo entre cada uno de sus puntos de conexión.

La utilidad de trabajar en red dentro de una oficina o empresa es, justamente, la reducción de costos, al acelerar y facilitar la transferencia de información dentro de la red. En este caso, se trataría de una intranet, ya que es una red interna a la que solo se tiene acceso desde uno de los nodos conectados a la red; a diferencia, por ejemplo, de internet, que también es, técnicamente, una red informática.

El networking informático, en todo caso, no utiliza solo hardware (routers, módems, etcétera), sino que también precisa de un software que habilite a la transferencia de la información dentro de la red: un sistema operativo de red (NOS, por sus siglas en inglés) y un software de aplicación, que es el que proporciona la interfaz para la transferencia de datos entre los diferentes nodos de la red.

Además, las redes informáticas deben contar con servidores, que funcionan como filtros o administradores de la información que se transfiere. Es decir, que cuando se envía información desde un nodo a otro, esta primero pasa por un servidor, que se encarga de procesar el pedido, y proceder a distribuir la información según se lo comande desde el nodo emisor.

Según su tamaño, la mayoría de las redes informáticas caen dentro de una de estas clasificaciones:

  • PAN, o Red de Área Personal: es el tipo de red más simple y pequeño que existe, siendo su alcance de apenas unos metros. Se compone, generalmente, por un dispositivo, generalmente un ordenador o un teléfono móvil, que se conecta a una red existente. Un ejemplo de una red PAN es una conexión por USB; mientras que uno de una red PAN inalámbrica (WPAN), es una conexión vía bluetooth.
  • LAN, Red de Área Local: se llama LAN a las redes informáticas en las que se conectan dos o más ordenadores o dispositivos al mismo tiempo. Es el tipo de red que se suele utilizar en empresas, instituciones y organizaciones en las que los nodos de la red están conectados físicamente a través de sistemas de cableados y servidores locales. A su vez, las redes locales pueden conectarse de forma inalámbrica (WLAN) a través de tecnologías de red como el Wi-Fi.
  • WAN, Red de Área Amplia: estas son las redes informáticas en las que un número infinito de dispositivos se conectan entre sí a lo largo y ancho de regiones, países y continentes. La red más grande (y la más utilizada en el mundo), la internet, es considerada una WAN; aunque, cabe aclarar, hay quienes hacen una diferenciación entre WAN y GAN (Red de Área Global), para incluir a la internet dentro de la segunda.

¿Qué es el networking? Leer más »

¿Cómo tiene que ser una red informática en una empresa?

Una red informática es un sistema en el que dos o más dispositivos informáticos, llamados nodos de red, están conectados entre sí a través de enlaces de red, físicos o inalámbricos, que facilitan, aceleran y aseguran la comunicación y la transferencia de información entre cada nodo de la red. En un contexto empresarial o institucional, las ventajas de contar con una red informática son muchas, lo que no significa que haya que pasar por alto una serie de características a tener en cuenta a la hora de construirla y administrarla.

En cuanto a las ventajas, son claras: por un lado, la transferencia de información dentro de los nodos de la red, como ordenadores, dispositivos móviles, impresoras o tabletas, se vuelve mucho más segura cuando se trata de una red informática privada, ya que se tiene absoluto control sobre todo el tráfico de datos de la misma; al mismo tiempo, estas transferencias son más rápidas y más estables, lo que potencialmente se traduce en ahorro, tanto de tiempo como de dinero.

Dicho esto, no todas las redes informáticas son iguales. A la hora de evaluar las características que buscas en una red informática para tu empresa, es importante que prestes atención a estos factores:

  • Rendimiento: el rendimiento refiere a la velocidad que tarda en ejecutarse un comando específico dentro de la red, y se mide según la cantidad de datos que pueden transferirse por segundo. En general, las redes informáticas con enlaces físicos, como cableados de fibra óptica, por ejemplo, tienen mucho mejor rendimiento que las redes con enlaces inalámbricos.
  • Seguridad: este es quizás el factor más importante a tener en cuenta dentro de una red informática empresarial. La seguridad refiere a la posibilidad de sufrir interferencias que afecten al normal funcionamiento de la red, ya sean accidentales o maliciosas. En general, las redes inalámbricas son más vulnerables a ataques o intrusiones maliciosas, mientras que las redes físicas son más sensibles a sufrir interferencias. En este sentido, la fibra óptica se vuelve a destacar al ser la forma de enlace de red más segura, ya que, al transportar la información en forma de pulsos lumínicos, no corre riesgos de sufrir interferencias, lo que garantiza una mayor seguridad y estabilidad.
  • Confiabilidad: la confiabilidad refiere a la probabilidad de que se produzca un fallo en uno de los nodos de la red informática, y el impacto que ese fallo tendría en el funcionamiento de la totalidad de la red. Es un factor importante de considerar, ya que, si las operaciones de la empresa dependen de que la red funcione ininterrumpidamente, un simple fallo en uno de los nodos puede causar, potencialmente, un daño mucho mayor. En estos casos, es una buena idea asegurarse de que la red cuente con un hardware redundante, que le añade una capa extra de confiabilidad.
  • Escalabilidad: este factor es especialmente importante para las empresas e instituciones en etapa de crecimiento y expansión, ya que refiere a la posibilidad de añadir nodos a la red en el futuro. Ya que cada nodo que se añada a la red influirá sobre otros aspectos de la misma (sobre todo en el rendimiento) es importante planificar a futuro e instalar la red teniendo en cuenta las proyecciones de crecimiento.
  • Disponibilidad: por último, es fundamental que la red informática esté disponible y funcionando siempre que se la necesite. La disponibilidad se refiere a la capacidad de una red informática de funcionar de forma eficiente ininterrumpidamente.

Conocer estos aspectos será fundamental a la hora de instalar tu propia red informática en tu empresa. Debes entender, sobre todo, cuáles son tus necesidades, tanto en el presente como a mediano y largo plazo, para poder construir una red informática que se adapte a tus necesidades y prospecciones a futuro.

¿Cómo tiene que ser una red informática en una empresa? Leer más »

¿Cómo funciona la fibra óptica?

La fibra óptica es una de las formas de transmisión de datos más rápida y extensa que existe en la actualidad. Se trata de cableados ópticos muy finos, con un diámetro que no suele superar el de un cabello humano, hechos de filamentos de fibra de vidrio o de materiales plásticos translúcidos, a través de los cuales se conducen pulsos de luz, láser o LED, cargados de información.

Son como autopistas de datos. La información viaja a través de la fibra óptica del punto A al punto B, en donde se decodifican los datos transmitidos. Dado que lo que viaja por el cableado es luz en lugar de electricidad, la velocidad de conexión es superior. Lo que es más, debido al principio de reflexión interna total, no se pierde información (no se pierde luz) a lo largo del recorrido, lo que posibilita la transmisión de información en distancias mucho más largas que al utilizar un cableado tradicional de cobre, por ejemplo.

La utilización más extendida de la fibra óptica es en servicios de conexión a internet de alta velocidad. De hecho, es el tipo de conexión más rápido y estable disponible en el mercado; pero tiene otras utilidades, como conexiones de audio, sistemas de seguridad, fabricación de sensores y transferencias de criptomonedas, solo por nombrar algunas.

Además de su superioridad en cuanto a velocidad y a distancia, la fibra óptica tiene un impacto menor en el medio ambiente (en comparación, una vez más, con el cableado tradicional), es relativamente liviana y es inmune a interferencias electromagnéticas.

Dicho esto, también existen desventajas asociadas a la fibra óptica, como la fragilidad del cableado, la complejidad del proceso de instalación y la imposibilidad de transmitir electricidad, lo que implica que, en caso de ser necesario, se deban instalar emisores y transportadores que funcionen por fuera de la fibra óptica. Además, hasta el momento, el costo de instalación y contratación de un servicio de fibra óptica suele ser algo más caro que el de otros tipos de conexión, aunque en los últimos años estos precios se han ido equilibrando.

En todo caso, existen dos grandes tipos de cableados de fibra óptica:

  • Fibra óptica monomodal: en este tipo de fibra óptica se transmite una única señal de luz, capaz de alcanzar distancias de hasta 400 kilómetros gracias a que utiliza un núcleo más pequeño que reduce al máximo la distorsión de la señal. Es el tipo de cableado de fibra óptica más caro, pero el que proporciona un ancho de banda más amplio, lo que se traduce en una velocidad superior.

  • Fibra óptica multimodal: en este tipo de fibra óptica se pueden transmitir una gran cantidad de señales de luz por el mismo cable, lo que le resta estabilidad y la hace menos confiable para conexiones de larga distancia. Es un tipo de cableado más económico y, a la vez, más fácil de instalar, especialmente recomendado para conexiones de media y corta distancia.

¿Cómo funciona la fibra óptica? Leer más »

Scroll al inicio