Archive for mayo 2011

MAQUETA


.


Maqueta, Cuerpo Humano


Intensión de la maqueta.


La maqueta se hizo con el fin de representar los tipos de Topologias que conocemos, en la maqueta representamos las topologias: Anillo, Bus y Arbol que son las mas comunes.

Elegimos El Cuero Humano para representar las topologias, porque todo nuestro cuerpo esta conectado en redes desde el cerebro, corazón, pasando por los riñones, pulmones y demas órganos entregando diversa información a nuestros organismos. Así, si nuestro Cerebo o en todo caso el Corazon no desempeñan bien sus funciones los demás organo no trabajaran correctamente, y de esa manera quisimos representar las Topologías de Red. Cada órgano representaba una computadora, y los botones su función.

LINUX-GNU


.



¿Qué es Linux?

Linux es, a simple vista, un Sistema Operativo. Es una implementación de libre distribución UNIX para computadoras personales (PC), servidores, y estaciones de trabajo. Fue desarrollado para el i386 y ahora soporta los procesadores i486, Pentium, Pentium Pro y Pentium II, así como los clones AMD y Cyrix. También soporta máquinas basadas en SPARC, DEC Alpha, PowerPC/PowerMac, y Mac/Amiga Motorola 680x0.
Como sistema operativo, Linux es muy eficiente y tiene un excelente diseño.

LINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, -como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX.

Características de Linux
· Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo
LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se están utilizando en un momento dado serán ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
· Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.
· Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM,MIPS, PowerPC y SPARC.
· Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.
· Funciona en modo protegido 386.
· Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
· Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
· Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
· Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar fácilmente con el cambio de unas cuantas lineas en el codigo fuente.

· La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas.
· Librerías compartidas de carga dinámica (DLL's) y librerías estáticas.
· Se realizan volcados de estado (coredumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
· Compatible con POSIX, System V y BSD a nivel fuente.
· Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
· Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito.
· Control de tareas POSIX.
· Pseudo-terminales (pty's).
· Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
· Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
· Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64.
· Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
· Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT (WNT, Windows 95) ha sido añadido al núcleo de desarrollo y estará en la próxima versión estable.
· Un sistema de archivos especial llamado UMSDOS que permite que Linux sea instalado en un sistema de archivos DOS.
· Soporte en sólo lectura de HPFS-2 del OS/2 2.1
· Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.
· TCP/IP, incluyendo ftp, telnet, NFS, etc.
· Appletalk.
· Software cliente y servidorNetware.
· Lan Manager / Windows Native (SMB), softwarecliente y servidor.
· Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6, AX.25, X.25, IPX, DDP, Netrom, etc.

Ventajas

Linux frente a los otros sistemas operativos
Linux es una muy buena alternativa frente a los demás sistemas operativos. Más allá de las ventajas evidentes de costo, ofrece algunas características muy notables.
En comparación con las otras versiones de Unix para PC, la velocidad y confiabilidad de Linux son muy superiores. También está en ventaja sobre la disponibilidad de aplicaciones, ya que no hay mucha difusión de estos otros Unixes (como Solaris, XENIX o SCO) entre los usuarios de PC por sus altos costos.
Comparado con sistemas operativos como los diferentes Microsoft Windows, Linux también sale ganando. Los bajos requisitos de hardware permiten hacer un sistema potente y útil de aquel 486 que algunos guardan en un armario. Esta misma característica permite aprovechar al máximo las capacidades de las computadoras más modernas. Es poco práctico tener una PC con 16 Mb de RAM y ponerle un sistema operativo que ocupa 13 (que es lo que reporta sobre Windows 95 el System Information de Symantec). No solo es superior respecto a el sistema de multitarea y de administración de memoria, sino también en la capacidades de networking (conectividad a redes) y de multiusuario (aún comparando con sistemas multiusuario como NT). La única desventaja de Linux frente a estos sistemas, es la menor disponibilidad de software, pero este problema disminuye con cada nuevo programa que se escribe para el proyecto GNU, y con algunas empresas que están desarrollando software comercial para Linux

Desventajas
Demasiadas distribuciones
Para un usuario novato es difícil tener que escoger entre 5-10 distribuciones de Linux la que más le conviene. Y es que muchas son parecidas entre pero luego tienen diferencias entre ellos.
. La temida línea de comandos
Pasan los años y sin duda Linux ha experimentado un gran cambio en este aspecto.
ahora casi todo se hace a en modo gráfico (almenos en Ubuntu y similares) y resulta mucho más fácil para cualquier usuario. Ahora puedes instalar software, desinstalarlo, configurar tu sistema, personalizarlo... aún más fácilmente que en Windows
Olvídate de los videojuegos
No se trata de una desventaja técnica, más bien económica: hay poco mercado en Linux en comparación con Windows y no sale a cuenta el desarrollo de versiones Linux de videojuegos. Técnicamente es posible que en Linux funcionen los videojuegos pero en la práctica los títulos más populares sólo salen para Windows. Hay herramientas como Wine para emular un sistema Windows dentro de Linux y poder jugar; pero eso no hace más que evidenciar la necesidad de tener Windows para jugar a videojuegos.
Nos olvidamos de virus pero no de otras amenazas
Se habla mucho de que Linux está libre de virus, no se necesitan antivirus ya que es un sistema operativo seguro. El problema es que hoy en día los virus son sólo una parte de las amenazas a las que estamos expuestos: phising, adware, spyware. ingeniería social.... Ni Linux ni ningún software nos puede proteger 100% contra todas las amenazas; y cada día los virus están perdiendo protagonismo a favor de otros métodos de dañar nuestros sistemas. En conclusión, la ventaja de que Linux no tenga virus cada vez pierde fuerza porque igualmente hacen falta otros métodos de protección.
Hace falta tiempo y dedicación
Aprender a usar Linux requiere cierto tiempo. Visual y funcionalmente se asemeja bastante a Windows, y por eso la curva de aprendizaje cada vez es menor (ya no es sólo un sistema para expertos). Aún así muchas tareas requieren usar la línea de comandos o conocer un poco más a fondo el funcionamiento de Linux. La mayoría de tareas básicas para un usuario medio se pueden aprender en poco tiempo, pero sin duda lo necesitaremos.
Incompatibilidad de software
Linux y sus desarrolladores han hecho un gran trabajo lanzando aplicaciones alternativas a programas de populares de Windows. Gracias a eso tenemos OpenOffice, Thunderbird, Firefox... que podemos ejecutar en Linux y que funcionan tan bien o mejor que su competencia de Windows (Office, Outlook, Internet Explorer). Sin embargo, al cambiar a Linux tenemos que vigilar mucho este aspecto porque muchas aplicaciones de Windows no están disponibles en Linux, o las alternativas que tenemos no tienen todas las funcionalidades. Por ejemplo, Photoshop no tiene ninguna alternativa a su nivel.
Podrían aparecer cracks y seriales
Una de las ventajas que comentamos de Linux era que no existían cracks ni seriales. Pero eso es cuando el software es libre y la financiación no es la venta de licencias. Habrá que ver qué pasaría si programas comerciales que funcionan en Windows (que tiene un modelo de negocio de venta de licencias) lanzaran versiones para Linux. Seguramente aparecerían seriales o cracks igual que ocurre en Windows. Siguiendo con los ejemplos, ¿qué pasaría si Photoshop lanzara una versión para Linux? No sería software libre por el monopolio que tiene al no tener prácticamente competencia y vender licencias a un precio muy elevado. Seguirían con su modelo de negocio de venta de licencias y por tanto aparecerían seriales -quizá también cracks- para Photoshop.
Cuando los desarrolladores comerciales que lanzan programas para Windows pasaran a Linux no creo que cambiaran su modelo de negocio sino que intentarían hacer lo mismo en el entorno Linux.
Ditribuciones

Ubuntu
Se centra en la facilidad de uso, amplio soporte de hardware y funcionalidad. Es una de las distribuciones más populares.

Debian
Proporciona un sistema operativo maduro y estable. Muy configurable. Ubuntu se basa en esta distribución.

Mandriva
Da mucha importancia a la facilidad de uso.
La última versión de esta distribución Linux es Mandriva 2009.

Fedora
Una distribución general de buena calidad y fácil de instalar. Incluye lo último en software libre y código abierto.
No se centra en un sólo nicho de mercado, sino que sirve tanto para el usuario domestico, como para el servidor de empresa.

Entono

Componentes
Entorno gráfico
Linux puede funcionar tanto en entorno gráfico como en modo consola. La consola es común en distribuciones para servidores, mientras que la interfaz gráfica está orientada al usuario final tanto de hogar como empresarial. Un escritorio es un conjunto de elementos conformado por ventanas, iconos y similares que facilitan la utilización del computador. Los escritorios más populares en Linux, en orden alfabético son GNOME, KDE, LXDE, Xfce y Xf.
Como sistema de programación
La colección de utilidades para la programación de GNU es con diferencia la familia de compiladores más utilizada en este sistema operativo. Tiene capacidad para compilar C, C++, Java, Ada, entre otros muchos lenguajes. Además soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que sea un entorno adecuado para desarrollos heterogéneos.
Hay varios entornos de desarrollo integrados disponibles para GNU/Linux incluyendo, Anjuta, KDevelop, Ultimate++, Code::Blocks, NetBeans IDE y Eclipse. También existen editores extensibles como Emacs o Vim. GNU/Linux también dispone de capacidades para lenguajes de guión (script), aparte de los clásicos lenguajes de programación de shell, o el de procesado de textos por patrones y expresiones regulares llamado awk, la mayoría de las distribuciones tienen instalado Python, Perl, PHP y Ruby.

Aplicaciones de usuario
Las aplicaciones para Linux se distribuyen principalmente en los formatos principalmente .deb y .rpm, los cuales fueron creados por los desarrolladores de Debian y Red Hat respectivamente. También existe la probabilidad de instalar aplicaciones a partir de código fuente en todas las distribuciones.
Software de código cerrado para GNU/Linux
Durante la etapa temprana había pocas aplicaciones de código cerrado para GNU/Linux. Con el tiempo se fueron portando programas no libres al sistema GNU/Linux, entre ellos Adobe Reader, Adobe Flash, Google Picasa, Opera, entre otros.

Modelos OSI


.

Durante los años 60 y 70 se crearon muchas tecnologías de redes, cada una basada en un diseño específico de hardware. Estos sistemas eran construidos de una sola pieza, una arquitectura monolítica. Esto significa que los diseñadores debían ocuparse de todos los elementos involucrados en el proceso, estos elementos forman una cadena de transmisión que tiene diversas partes: Los dispositivos físicos de conexión, los protocolos software y hardware usados en la comunicación.
Los programas de aplicación realizan la comunicación y la interfaz hombre-máquina que permite al humano utilizar la red. Este modelo, que considera la cadena como un todo monolítico, es poco práctico, pues el más pequeño cambio puede implicar alterar todos sus elementos.
El diseño original de Internet del Departamento de Defensa Americano disponía un esquema de cuatro capas, aunque data de los 70 es similar al que se continúa utilizando:
Capa Física o de Acceso de Red: Es la responsable del envío de la información sobre el sistema hardware utilizado en cada caso, se utiliza un protocolo distinto según el tipo de red física.
Capa de Red o Capa Internet: Es la encargada de enviar los datos a través de las distintas redes físicas que pueden conectar una máquina origen con la de destino de la información. Los protocolos de transmisión, como el IP están íntimamente asociados a esta capa.
Capa de Transporte: Controla el establecimiento y fin de la conexión, control de flujo de datos, retransmisión de datos perdidos y otros detalles de la transmisión entre dos sistemas. Los protocolos más importantes a este nivel son TCP y UDP (mutuamente excluyentes).
Capa de Aplicación: Conformada por los protocolos que sirven directamente a los programas de usuario, navegador, e-mail, FTP, TELNET, etc.
Respondiendo a la teoría general imperante el mundo de la computación, de diseñar el hardware por módulos y el software por capas, en 1978 laorganización ISO (International Standards Organization), propuso un modelo de comunicaciones para redes al que titularon "The reference model of Open Systems Interconnection", generalmente conocido como MODELO OSI.
Su filosofía se basa en descomponer la funcionalidad de la cadena de transmisión en diversos módulos, cuya interfaz con los adyacentes esté estandarizada. Esta filosofía de diseño presenta una doble ventaja: El cambio de un módulo no afecta necesariamente a la totalidad de la cadena, además, puede existir una cierta inter-operabilidad entre diversos productos y fabricantes hardware/software, dado que los límites y las interfaces están perfectamente definidas.
Esto supone por ejemplo, que dos softwares de comunicación distintos puedan utilizar el mismo medio físico de comunicación.
El modelo OSI tiene dos componentes principales:
· Un modelo de red, denominado modelo básico de referencia o capa de servicio.
· Una serie de protocolos concretos.
El modelo de red, aunque inspirado en el de Internet no tiene más semejanzas con aquél. Está basado en un modelo de siete (7) capas, mientras que el primitivo de Internet estaba basado en cuatro (4). Actualmente todos los desarrollos se basan en este modelo de 7 niveles que son los siguientes: 1Físico; 2 de Enlace; 3 de Red; 4 de Transporte; 5 de Sesión; 6 de Presentación y 7 de Aplicación. Cada nivel realiza una función concreta, y está separado de los adyacentes por interfaces conocidas, sin que le incumba ningún otro aspecto del total de la comunicación.
Generalmente los dispositivos utilizados en las redes circunscriben su operación a uno o varios de estos niveles. Por ejemplo, un hub (concentrador) que amplifica y retransmite la señal a través de todos sus puertos está operando exclusivamente en la capa 1, mientras que un conmutador (switch) opera en las capas 1 y 2; un router opera en las capas 1, 2 y 3. Finalmente una estación de trabajo de usuario generalmente maneja las capas 5, 6 y 7.
En lo que respecta al software, hay que señalar que cada capa utiliza un protocolo específico para comunicarse con las capas adyacentes, y que añade a la cabecera del paquete cierta información adicional.
Capas del modelo OSI
La descripción de las diversas capas que componen este modelo es la siguiente:
1. Capa física
Es la encargada de transmitir los bits de información por la línea o medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes, de la velocidad de transmisión, si esta es unidireccional o bidireccional (simplex, duplex o flull-duplex).
También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas.
Como resumen de los cometidos de esta capa, podemos decir que se encarga de transformar un paquete de información binaria en una sucesión de impulsos adecuados al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable), electromagnéticos (transmisión Wireless) o luminosos (transmisón óptica). Cuando actúa en modo recepción el trabajo es inverso, se encarga de transformar estos impulsos en paquetes de datos binarios que serán entregados a la capa de enlace.
2. Capa de enlace
Puede decirse que esta capa traslada los mensajes hacia y desde la capa física a la capa de red. Especifica como se organizan los datos cuando se transmiten en un medio particular. Esta capa define como son los cuadros, las direcciones y las sumas de control de los paquetes Ethernet.
Además del direccionamiento local, se ocupa de la detección y control de errores ocurridos en la capa física, del control del acceso a dicha capa y de la integridad de los datos y fiabilidad de la transmisión. Para esto agrupa la información a transmitir en bloques, e incluye a cada uno una suma de control que permitirá al receptor comprobar su integridad. Los datagramas recibidos son comprobados por el receptor. Si algún datagrama se ha corrompido se envía un mensaje de control al remitente solicitando su reenvío.
La capa de enlace puede considerarse dividida en dos subcapas:
· Control lógico de enlace LLC: define la forma en que los datos son transferidos sobre el medio físico, proporcionando servicio a las capas superiores.
· Control de acceso al medio MAC: Esta subcapa actúa como controladora del hardware subyacente (el adaptador de red). De hecho el controlador de la tarjeta de red es denominado a veces "MAC driver", y la dirección física contenida en el hardware de la tarjeta es conocida como dirección. Su principal consiste en arbitrar la utilización del medio físico para facilitar que varios equipos puedan competir simultáneamente por la utilización de un mismo medio de transporte. El mecanismo CSMA/CD ("Carrier Sense Multiple Access with Collision Detection") utilizado en Ethernet es un típico ejemplo de esta subcapa.

3. Capa de Red
Esta capa se ocupa de la transmisión de los datagramas (paquetes) y de encaminar cada uno en la dirección adecuada tarea esta que puede ser complicada en redes grandes como Internet, pero no se ocupa para nada de los errores o pérdidas de paquetes. Define la estructura de direcciones y rutas de Internet. A este nivel se utilizan dos tipos de paquetes: paquetes de datos y paquetes de actualización de ruta. Como consecuencia esta capa puede considerarse subdividida en dos:
· Transporte: Encargada de encapsular los datos a transmitir (de usuario). Utiliza los paquetes de datos. En esta categoría se encuentra el protocolo IP.
· Conmutación: Esta parte es la encargada de intercambiar información de conectividad específica de la red. Los routers son dispositivos que trabajan en este nivel y se benefician de estos paquetes de actualización de ruta. En esta categoría se encuentra el protocolo ICMP responsable de generar mensajes cuando ocurren errores en la transmisión y de un modo especial de eco que puede comprobarse mediante ping.
Los protocolos más frecuentemente utilizados en esta capa son dos: X.25 e IP.
4. Capa de Transporte
Esta capa se ocupa de garantizar la fiabilidad del servicio, describe la calidad y naturaleza del envío de datos. Esta capa define cuando y como debe utilizarse la retransmisión para asegurar su llegada. Para ello divide el mensaje recibido de la capa de sesión en trozos (datagramas), los numera correlativamente y los entrega a la capa de red para su envío.
Durante la recepción, si la capa de Red utiliza el protocolo IP, la capa de Transporte es responsable de reordenar los paquetes recibidos fuera de secuencia. También puede funcionar en sentido inverso multiplexando una conexión de transporte entre diversas conexiones de datos. Este permite que los datos provinientes de diversas aplicaciones compartan el mismo flujo hacia la capa de red.
Un ejemplo de protocolo usado en esta capa es TCP, que con su homólogo IP de la capa de Red, configuran la suite TCP/IP utilizada en Internet, aunque existen otros como UDP, que es una capa de transporte utilizada también en Internet por algunos programas de aplicación.
5. Capa de Sesión
Es una extensión de la capa de transporte que ofrece control de diálogo y sincronización, aunque en realidad son pocas las aplicaciones que hacen uso de ella.

6. Capa de Presentación
Esta capa se ocupa de garantizar la fiabilidad del servicio, describe la calidad y naturaleza del envío de datos. Esta capa define cuando y como debe utilizarse la retransmisión para asegurar su llegada. Para ello divide el mensaje recibido de la capa de sesión en trozos (datagramas), los numera correlativamente y los entrega a la capa de red para su envío.
Durante la recepción, si la capa de Red utiliza el protocolo IP, la capa de Transporte es responsable de reordenar los paquetes recibidos fuera de secuencia. También puede funcionar en sentido inverso multiplexando una conexión de transporte entre diversas conexiones de datos. Este permite que los datos provinientes de diversas aplicaciones compartan el mismo flujo hacia la capa de red.
Esta capa se ocupa de los aspectos semánticos de la comunicación, estableciendo los arreglos necesarios para que puedan comunicar máquinas que utilicen diversa representación interna para los datos. Describe como pueden transferirse números de coma flotante entre equipos que utilizan distintos formatos matemáticos.
En teoría esta capa presenta los datos a la capa de aplicación tomando los datos recibidos y transformándolos en formatos como texto imágenes ysonido. En realidad esta capa puede estar ausente, ya que son pocas las aplicaciones que hacen uso de ella.
7. Capa de Aplicación
Esta capa describe como hacen su trabajo los programas de aplicación (navegadores, clientes de correo, terminales remotos, transferencia de ficheros etc). Esta capa implementa la operación con ficheros del sistema. Por un lado interactúan con la capa de presentación y por otro representan la interfaz con el usuario, entregándole la información y recibiendo los comandos que dirigen la comunicación.
Algunos de los protocolos utilizados por los programas de esta capa son HTTP, SMTP, POP, IMAP