INICIO

Multiproceso y Tendencias



2.1 El concepto de multiprocesamiento


Medios de multiprocesamiento que tienen más de un procesador que opera en la misma memoria pero ejecuta procesos simultáneamente. En un sistema de multiprocesamiento procesadores múltiples son empleados a ejecutado más de una actividad en el tiempo, siempre que la informática masiva deba ser realizada con regularidad. Multiprocesador. Como muchas de las actividades principales de la informática se ejecutan simultáneamente por los procesadores diferentes.

Sin embargo, es esencial proporcionar la sincronización entre procesador múltiple ellos tienen acceso a la memoria común tal que ninguna parte del trabajo de informática debería ser descuidada por el procesador individual con una presunción que el otro procesador lo hará.

Un sistema de multiprocesamiento con varios funcionamientos juntos a la vez proporcionará un ambiente de multiprogramación. La multiprogramación permite que programas múltiples residan en áreas separadas de la memoria principal al mismo tiempo. Con este acercamiento, es posible mantener dos o más empleos simultáneamente en la ejecución o en estados de la ejecución.
Los sistemas de ordenador de multiprocesador son caros y encontraron su uso sólo en la aplicación de informática compleja y en la alta velocidad que funda el punto aplicación de cálculo numérica en espacios de investigación e industria.

ARRIBA


2.2 Tipos de sistemas operativos para multiprocesador





2.2.1 multiprocesamiento asimétrico (smp).

Los sistemas operativos smp permiten la ejecución del sistema operativo en todos los procesadores simultáneamente, compartiendo la memoria entre ellos. Esta estrategia utiliza mejor los procesadores, ya que el propio sistema operativo puede requerir un porcentaje notable del tiempo de procesamiento de un equipo, dependiendo de las aplicaciones que se encuentran en ejecución. Los sistemas smp tienen además una menor probabilidad de quedarse bloqueados, ya que el código del sistema operativo puede ejecutarse en los otros procesadores cuando falla uno de ellos razón por la cual se les denomina con sistema tolerantes a fallas.
ARRIBA

2.2.2 multiprocesamiento asimétrico (asmp)


Los procesadores asimétricos seleccionan normalmente un procesador para ejecutar todo el código del sistema operativo, mientras que el resto ejecuta los trabajos del usuario. El hecho de ejecutar el sistema operativo en un solo procesador puede sobrecargarlo, dejando a otros inactivos y reduciendo con ello el rendimiento del sistema.

En el asmp se observa que unos procesadores trabajan y otros no.

ARRIBA


2.3 Redes, servicios y protocolos de red.





Una red de computadoras, también llamada red de ordenadores o red informática, es un conjunto de equipos (computadoras y/o dispositivos) conectados por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.), servicios (acceso a internet, e-mail, chat, juegos), etc.

Una red de comunicaciones es un conjunto de medios técnicos que permiten la comunicación a distancia entre equipos autónomos (no jerárquica -master/slave-). Normalmente se trata de transmitir datos, audio y vídeo por ondas electromagnéticas a través de diversos
medios (aire, vacío, cable de cobre, fibra óptica, etc.).

Para simplificar la comunicación entre programas (aplicaciones) de distintos equipos, se definió el
modelo osi por la ISO, el cual especifica 7 distintas capas de abstracción. Con ello, cada capa desarrolla una función específica con un alcance definido.

Un protocolo de red es una norma standard -conjunto de normas standard- que especifica el método para enviar y recibir datos entre varios ordenadores. No existe un único protocolo de red, y es posible que en un mismo ordenador coexistan instalados varios protocolos, pues es posible que un ordenador pertenezca a redes distintas.

Esta variedad de protocolos puede suponer un riesgo de seguridad: cada protocolo de red que instalamos en un sistema Windows queda disponible para todos los adaptadores de red existentes en el sistema, físicos (tarjetas de red o módem) o lógicos (adaptadores vpn). Si los dispositivos de red o protocolos no están correctamente configurados, podemos estar dando acceso no deseado a nuestros recursos.

La regla de seguridad más sencilla es la de tener instalados el número de protocolos indispensable; en la actualidad y en la mayoría de los casos debería bastar con sólo tcp/ip.
Si necesitamos más de un protocolo, es igualmente aconsejable deshabilitarlo en cada uno de los dispositivos de red que no vayan a hacer uso de él. Y finalmente, un consejo de seguridad contradictorio con los dos anteriores: si necesitamos prestaciones que podemos obtener con varios protocolos, o con una extensión de otro protocolo ya instalado, a menudo será preferible instalar los dos protocolos. El ejemplo típico es el de no usar NetBIOS sobre tcp/ip y instalar y usar en su lugar netbeui si precisamos compartir recursos en una red Windows. Las razones las veremos a continuación.

Finalmente una aclaración: una conexión de red implica una relación entre ordenadores a muchos niveles: necesitamos una conexión física (cable, etc.) necesitamos manejar los datos transportados; necesitamos un sistema de transporte; necesitamos mostrar los datos. Normalmente los protocolos de red trabajan en grupos, encargándose de aspectos parciales de la comunicación.

ARRIBA


2.3.1 netbeui/NetBIOS.

NetBIOS es un protocolo de comunicación entre ordenadores que comprende tres servicios:

El servicio de nombres permite el registro de nombres de computador, aplicaciones y otros identificadores en general en la red. Un programa puede, a través de este servicio, determinar qué computadora en la red corresponde un determinado nombre.

El servicio de paquetes posibilita el envío y recibimiento de paquetes en la red, punto a punto o por difusión.
El servicio de sesión permite el establecimiento de conexiones entre dos puntos en la red y es análogo al protocolo tcp.

Este protocolo corresponde con la era pre-internet, año 1985, y se utilizaba en equipos con win 98/95 y "Microsoft Windows para trabajo en grupo". En esa época, una red de las dimensiones de internet era inimaginable; el modelo sobre el que se trabajaba era el de redes segmentadas en racimos de unos pocos equipos (grupos de trabajo) bajo el principio de confianza: se presumía que todos los ordenadores de cada segmento eran seguros.

Debido a este diseño para grupos pequeños (óptimamente, una decena, máximo unos 200 equipos) NetBIOS es un protocolo no enrutable: cada equipo se identifica con un nombre (equipo_de_pepe, equipo_de_juan) y no con una dirección lógica, viéndose entre sí únicamente los equipos situados en el mismo segmento, y siendo necesario utilizar puertas de enlace (gateways) para conectar los segmentos entre sí, o con un ordenador principal. En realidad, y pese a su antigüedad y limitaciones, para redes pequeñas, posiblemente siga siendo el protocolo más rápido.

NetBIOS originariamente trabajaba sobre el protocolo netbeui que era el responsable del transporte de datos.

Con la difusión de internet, sin embargo, y la omnipresencia del protocolo tcp/ip, los sistemas operativos de Microsoft más recientes permiten ejecutar NetBIOS sobre el protocolo tcp/ip, prescindiendo de netbeui (de hecho este protocolo no aparece por defecto disponible en Windows xp).

Y de ahí la paradoja de los consejos de seguridad que decíamos al principio. En principio no te hace falta NetBIOS si solo quieres conectarte a internet. Pero en el caso de que debas tener NetBIOS (por ejemplo porque quieres compartir una impresora en una red doméstica), puedes ejecutarlo sobre tcp/ip, lo que te permite prescindir del protocolo netbeui, lo que es bueno, porque limita el número de protocolos instalados. Pero como netbeui no es accesible desde internet, por no ser enrutable, quizás sea una mayor ventaja ejecutar NetBIOS sobre netbeui, desactivando NetBIOS sobre tcp/ip.

ARRIBA


2.3.2 ipx/spx


Ipx/spx se usa para redes NetWare de Novell, no siendo necesario si no tienes una red de este tipo. El protocolo ipx se refiere al empaquetamiento de los datos, incluyendo cada paquete la dirección de destino, lo que permite enviar datos de una red a otra. El protocolo ipx no garantiza la integridad del envío (paquetes perdidos etc.). De ello se encarga el protocolo spx.

Mientras que el protocolo ipx es similar a ip, spx es similar a tcp. Juntos, por lo tanto, proporcionan servicios de conexión similares a tcp/ip.

ARRIBA

2.3.3 tcp/ip

Se trata de un conjunto de protocolos, entre ellos los dos que le dan nombre: tcp y ip.

El protocolo ip se refiere a la forma de fraccionar los datos a enviar en bloques (paquetes, datagramas). Como ocurre con ipx, ip es un servicio no confiable (o de mejor esfuerzo), que no garantiza la recepción del paquete. El paquete podría llegar dañado, en otro orden con respecto a otros paquetes, duplicado o simplemente no llegar. La confiabilidad es proporcionada por el protocolo de la capa de transporte, trabajando en equipo.

El protocolo ip permite llevar los datos de un ordenador a otro, sin necesidad de que exista una conexión directa. Cada paquete lleva incluida la dirección del remitente y del destinatario, por lo que puede llegar a término moviéndose por distintas redes, dirigido por enrutadores.

El protocolo tcp es el que se encarga del transporte de los datagramas ip: en el ordenador de origen se encarga de la creación de los datagramas, su secuencia, su identificación, del control de errores y de su envío. En el ordenador de destino el mismo protocolo tcp se encarga de recopilar los datagramas, de ordenarlos secuencialmente, de esperar a los datagramas retrasados, y de solicitar al ordenador de destino que reenvíe aquellos que se hayan extraviado o hayan llegado dañados, encargándose también al final de reconstruir los datos con los datagramas recibidos. El sistema es muy flexible y eficaz: si una conexión entre redes se rompe, los datos cambian la trayectoria y alcanzan su destino por una ruta alternativa: la red puede llevar cada paquete por la ruta más idónea disponible en ese instante. Tampoco es preciso que todos los paquetes lleguen en el mismo orden o en el mismo tiempo. Si un paquete se pierde, solo es preciso reenviar este, no la totalidad de los datos.

ARRIBA

2.4 Sistemas paralelos y distribuidos.





2.4.1 sistemas paralelos.


Los sistemas paralelos son aquellos que tienen la capacidad de realizar varias operaciones de manera simultánea. Generalmente estos sistemas suelen manejar grandes cantidades de información del orden de los terabytes y pueden procesar cientos de peticiones por segundo. Los sistemas paralelos están formados por varios sistemas que comparten la información, los recursos y la memoria de alguna manera.

Los sistemas paralelos también utilizan tanto componentes de pr como de pluralidad/mayoría aunque, a diferencia de los sistemas de rpp, el componente de rp no compensa ninguna desproporcionalidad de los distritos de pluralidad/mayoría. (Asimismo, es posible que los componentes que no sean de rp en un sistema paralelo, provengan de la familia de “otros” sistemas, como en Taiwán.)

En un sistema paralelo, al igual que en uno de rpp, cada elector puede recibir una sola papeleta, en la que puede emitir su voto tanto para un candidato como para su partido, tal y como ocurre en corea del sur, o dos papeletas distintas, una para votar por el escaño de mayoría y otra para los escaños de rp, como sucede por ejemplo en Japón, Lituania y Tailandia (ver los estudios de caso sobre Japón y Tailandia). Los sistemas paralelos son producto de la ingeniería de los sistemas electorales a lo largo de los últimos tres lustros, debido en gran medida a su tentativa de combinar los beneficios de la rp por listas y de otros tipos de representación, como los de pluralidad/mayoría.
ARRIBA

2.4.2 sistemas distribuidos.


Los sistemas distribuidos están basados en las ideas básicas de transparencia, eficiencia, flexibilidad, escalabilidad y fiabilidad. Sin embargo estos aspectos son en parte contrarios, y por lo tanto los sistemas distribuidos han de cumplir en su diseño el compromiso de que todos los puntos anteriores sean solucionados de manera aceptable.

Transparencia: el concepto de transparencia de un sistema distribuido va ligado a la idea de que todo el sistema funcione de forma similar en todos los puntos de la red, independientemente de la posición del usuario. Queda como labor del sistema operativo el establecer los mecanismos que oculten la naturaleza distribuida del sistema y que permitan trabajar a los usuarios como si de un único equipo se tratara.

En un sistema transparente, las diferentes copias de un
archivo deben aparecer al usuario como un único archivo. Queda como labor del sistema operativo el controlar las copias, actualizarlas en caso de modificación y en general, la unicidad de los recursos y el control de la concurrencia.

El que el sistema disponga de varios
procesadores debe lograr un mayor rendimiento del sistema, pero el sistema operativo debe controlar que tanto los usuarios como los programadores vean el núcleo del sistema distribuido como un único procesador. El paralelismo es otro punto clave que debe controlar el sistema operativo, que debe distribuir las tareas entre los distintos procesadores como en un sistema multiprocesador, pero con la dificultad añadida de que ésta tarea hay que realizarla a través de varios ordenadores.

Eficiencia: la idea base de los sistemas distribuidos es la de obtener sistemas mucho más rápidos que los ordenadores actuales. Es en este punto cuando nos encontramos de nuevo con el paralelismo. Para lograr un sistema eficiente hay que descartar la idea de ejecutar un programa en un único procesador de todo el sistema, y pensar en distribuir las tareas a los procesadores libres más rápidos en cada momento.

La idea de que un
procesador vaya a realizar una tarea de forma rápida es bastante compleja, y depende de muchos aspectos concretos, como la propia velocidad del procesador, pero también la localidad del procesador, los datos, los dispositivos, etc. Se han de evitar situaciones como enviar un trabajo de [[http://ads.us.e-planning.net/ei/3/29e9/cfa010f10016a577?rnd=0.8846616043450837&pb=b3f6a6f419cb2170&fi=87350be117105bb6&kw=impresión|impresión]] a un ordenador que no tenga conectada una impresora de forma local.
Flexibilidad: un proyecto en desarrollo como el diseño de un sistema operativo distribuido debe estar abierto a cambios y actualizaciones que mejoren el funcionamiento del sistema. Esta necesidad ha provocado una diferenciación entre las dos diferentes arquitecturas del núcleo del sistema operativo: el núcleo monolítico y el micro núcleo. Las diferencias entre ambos son los servicios que ofrece el núcleo del sistema operativo. Mientras el núcleo monolítico ofrece todas las funciones básicas del sistema integradas en el núcleo, el micro núcleo incorpora solamente las fundamentales, que incluyen únicamente el control de los procesos y la comunicación entre ellos y la memoria. El resto de servicios se cargan dinámicamente a partir de servidores en el nivel de usuario.

Núcleo monolítico: como ejemplo de sistema operativo de núcleo monolítico está Unix. Estos sistemas tienen un núcleo grande y complejo, que engloba todos los servicios del sistema. Está programado de forma no modular, y tiene un rendimiento mayor que un micro núcleo. Sin embargo, cualquier cambio a realizar en cualquier servicio requiere la parada de todo el sistema y la recopilación del núcleo.

Micro núcleo: la arquitectura de micro núcleo ofrece la alternativa al núcleo monolítico. Se basa en una programación altamente modular, y tiene un tamaño mucho menor que el núcleo monolítico. Como consecuencia, el refinamiento y el control de errores son más rápidos y sencillos. Además, la actualización de los servicios es más sencilla y ágil, ya que sólo es necesaria la recopilación del servicio y no de todo el núcleo. Como contraprestación, el rendimiento se ve afectado negativamente.

En la actualidad la mayoría de
sistemas operativos distribuidos en desarrollo tienden a un diseño de micro núcleo. Los núcleos tienden a contener menos errores y a ser más fáciles de implementar y de corregir. El sistema pierde ligeramente en rendimiento, pero a cambio consigue un gran aumento de la flexibilidad.

Escalabilidad: un sistema operativo distribuido debería funcionar tanto para una docena de ordenadores como varios millares. Igualmente, debería no ser determinante el tipo de red utilizada (lan o WAN) ni las distancias entre los equipos, etc. Aunque este punto sería muy deseable, puede que las soluciones válidas para unos cuantos ordenadores no sean aplicables para varios miles. Del mismo modo el tipo de red condiciona tremendamente el rendimiento del sistema, y puede que lo que funcione para un tipo de red, para otro requiera un nuevo diseño.

La escalabilidad propone que cualquier ordenador individual ha de ser capaz de trabajar independientemente como un sistema distribuido, pero también debe
poder hacerlo conectado a muchas otras máquinas.

Fiabilidad: una de las ventajas claras que nos ofrece la idea de sistema distribuido es que el funcionamiento de todo el sistema no debe estar ligado a ciertas máquinas de la red, sino que cualquier equipo pueda suplir a otro en caso de que uno se estropee o falle. La forma más evidente de lograr la fiabilidad de todo el sistema está en la redundancia. La información no debe estar almacenada en un solo servidor de archivos, sino en por lo menos dos máquinas. Mediante la redundancia de los principales archivos o de todos evitamos el caso de que el fallo de un servidor bloquee todo el sistema, al tener una copia idéntica de los archivos en otro equipo.

Otro tipo de redundancia más compleja se refiere a los
procesos. Las tareas críticas podrían enviarse a varios procesadores independientes, de forma que el primer procesador realizaría la tarea normalmente, pero ésta pasaría a ejecutarse en otro procesador si el primero hubiera fallado.
Comunicación: la comunicación entre procesos en sistemas con un único procesador se lleva a cabo mediante el uso de memoria compartida entre los procesos. En los sistemas distribuidos, al no haber conexión física entre las distintas memorias de los equipos, la comunicación se realiza mediante la transferencia de mensajes.
ARRIBA

2.5 Computadoras alimentadas por baterías.


image009.jpg


Cada vez más las grandes empresas están optando por sistemas de energía en el sitio de trabajo que, además de servir como energía standby, también sirven para controlar costos generales de energía. Estos sistemas de energía
Se configuran para funcionar en paralelo con los servicios públicos locales y de este modo aprovechar los programas de incentivos de los servicios públicos. Los programas “ininterrumpibles” de los servicios públicos dan crédito a las empresas en su facturación de electricidad por permitir que el servicio público determine cuándo debe operarse el sistema de energía standby para suministrar la carga total o parcial del negocio. De esta manera, el servicio público se beneficia por ser capaz de desprenderse de parte de su carga durante las horas de demanda pico y reducir la presión de su sistema de generación y transmisión. A su vez, la empresa se beneficia con menores tarifas de energía.

Muchos de estos factores se pueden determinar mucho antes de que el propietario de la empresa se siente con su ingeniero asesor, contratista eléctrico o fabricante de generadores para analizar la planificación detallada para un sistema de energía standby. Antes de que la conversación se desvíe a cuestiones técnicas y a “cuánto hardware se necesita”, este pensamiento del modelo comercial le habrá ayudado a considerar el riesgo económico relacionado con una falla del servicio público y el nivel de respuesta a dicho riesgo.
ARRIBA


2.6 Sistemas incrustados




Un sistema “embedded” es un equipo con un propósito determinado, integrado en el sistema que controla. Necesita especificaciones particulares y realiza tareas predefinidas. Embedded significa encajado, embutido, algo metido dentro de otra cosa. Es un
sistema operativo para plataformas de 32 bits adaptables y ampliables, que demanden conectividad y amplio soporte para el desarrollo de aplicaciones. Es la versión industrial del Windows xp profesional. Basado en los mismos binarios que el Windows xp profesional. Se eligen solo las funciones y servicios que se necesitan. Herramientas rápidas y potentes para la creación de imágenes propias para cada aplicación. Este sistema operativo es el que usan cajeros automáticos, surtidores, puntos de venta, etc.

Para el desarrollo de Windows xp embedded existen una serie de herramientas:

Target analyzer (ta): genera información sobre la composición hardware. Component designer(Cd): creación de componentes personalizados. Target designer(td): selección y configuración de los componentes para generar la imagen final
s.o. Se usa para crear y generar el sistema
ARRIBA


INICIO ARRIBA

www.servipc-red.com

Webfetti.com