lunes, 21 de noviembre de 2011

Cigarrillo Electronico

Un cigarrillo electrónico (o también llamado “e-Cig” o "e-Cigar") es una alternativa al Cigarrillo destinada tanto a quienes desean seguir fumando sin inhalar las sustancias nocivas del tabaco, como a las personas que, cuando están fumando, desean molestar lo menos posible a quienes están a su alrededor. El aparato, por sí mismo, únicamente vaporiza la sustancia contenida en los cartuchos, provocando la expulsión de vapor que imita al humo en el cigarrillo tradicional y consiguiendo así en el usuario un efecto similar.







La boquilla del aparato contiene un cartucho recambiable o recargable lleno de líquido. Las principales sustancias que contiene el líquido son: propilenglicol y/o glicerina vegetal, nicotina en diferentes dosis como opcional (por lo general entre 0 mg y 36 miligramos por mililitro), sabores y aromas opcionales.
Cuando el usuario inhala a través del aparato, el flujo de aire es detectado por un sensor. Un microprocesador activa entonces un nebulizador (popularizado por la industria como atomizador), que inyecta minúsculas gotitas del líquido en el aire que fluye y lo vaporiza. Esto produce una nube de vapor que es inhalada por el usuario. La adición del propilenglicol hace que la nube de vapor se parezca más al humo de un cigarrillo normal. El microprocesador activa también un Led de Color Naranja (que en los últimos modelos puede ser de otros colores: verde, azul, rosa, etc.) en la punta de aparato para mejor simular el acto fumar auténtico.

Por ejemplo, el estudio de Laugesen reporta un máximo total de nitrosaminas de 8,16 nanogramos por cartucho mientras que en las principales marcas lideres de cigarrillo convencional se reportan de 1300 a 6300 nanogramos por gramo (1,3 - 6,3 microgramos/gramo). Igualmente, estos resultados también indicaron que el nivel de nicotina en los cartuchos del cigarrillo electrónico no es diferente de la concentración de nicotina en los parches de nicotina. Este estudio concluyo que en base a la información del fabricante, la composición del líquido del cartucho no es peligroso para la salud, si se usa debidamente. El departamento de sanidad neozelandés aprobó los cigarrillos electrónicos.
Solución De Nicotina
La organización de consumidores OCU también publicó un artículo sobre este producto.1
Desde la web también se aprueba el uso de estos dispositivos para reducir el daño a los fumadores y fumadores pasivos
Recientemente un juez ha dictado sentencia, en la que da apoyo a la distribución del cigarrillo electrónico en Estados Unidos.
Los cigarrillos electrónicos por sí mismos no contienen nicotina. El uso de esta sustancia para paliar los efectos del síndrome de abstinencia queda a elección de los usuarios, y viene determinada por la carga de los cartuchos que se utilicen, o la concentración del líquido con que sean recargados.

  • En la Unión Europea, algunos países han estipulado una decisión respecto al estatus legal de los productos relacionados con los cigarrillos electrónicos.
  • En España, no hay una legislación al respecto de los cigarrillos electrónicos, se les aplica la normativa general de bienes de consumo.
  • En Austria, los cigarrillos electrónicos son considerados como recursos médicos y los cartuchos de nicotina un producto medicinal. Esto significa que los cigarrillos electrónicos deben llevar el sello CE y los cartuchos de nicotina deben ser registrados como producto medicinal antes de poder ser puestos a la venta.
  • En el Reino Unido, el uso de cigarrillos electrónicos está permitido, y el famoso club nocturno Chinawhite, donde acuden los famosos, permite su uso en el interior, donde fumar cigarrillos tradicionales está prohibido.
  • En Holanda, el uso de cigarrillos electrónicos está permitido, pero no su publicidad mientras no exista una directiva o legislación europea al respecto.


Tercera Cultutura

Tercera cultura es un término acuñado por el editor John Brockman en su libro de 1995 The Third Culture. El concepto hace referencia al supuesto divorcio entre la cultura humanística y la científica que C.P había diagnosticado en su obra las dos culturas, entendiendo la necesidad de una tercera cultura que aunara, superándolas, a ambas sobre la base de una filosofía Natural
La teoría de la construcción de la tercera cultura (Third-Culture Building) basada en el interaccionismo simbólico, pretende no centrarse tanto en las dificultades comunicativas, como en los resultados de la comunicación, planteando la posibilidad de la construcción cooperativa de una tercera cultura que facilite una comunicación intercultural más efectiva. Para ello propone el desarrollo de tres modelos para el proceso de construcción de la tercera cultura: el ciclo de actuación en la construcción individual de la tercera cultura, la construcción de la tercera cultura y el tercer modelo basado en la interacción de los dos anteriores: el ciclo de actuación individual y la construcción de la tercera cultura. Desde esta perspectiva, se plantean cinco fases que se presentan cíclicamente (Chen y Starosta, 1998):
  • Comunicación intracultural intrapersonal basada en las etapas de conciencia y presentación unilaterales, caracterizadas por la curiosidad y motivaciones iniciales para la comunicación intercultural.
  • Comunicación intercultural interpersonal basada por los estadios de búsqueda de información, de reciprocidad y de ajuste mutuo. Todo intento de superioridad de una de las partes puede desfavorecer la construcción de la tercera cultura.
  • Comunicación intercultural retórica, donde las dos partes empiezan a considerar no solo su propia perspectiva cultural y se establecen las funciones de convergencia e integración de aquellos elementos que constituirán la tercera cultura.
  • Comunicación metacultural basada en el intercambio simbólico y reinterpretación y los primeros intentos de acción mutua. Se propician dos estadios de reajuste y asimilación mutua, que favorecen respectivamente la reducción de desviaciones respecto a las normas establecidas y el establecimiento de la negociación como aspecto natural en la interacción. Aspectos que a su vez, favorecen trascender de las diferencias entre los referentes culturales que se fusionan en la tercera cultura.
  • Comunicación intracultural corresponde al estadio de abandono de la cultura primaria para la formación de una metaidentidad que reinará en las próximas interacciones.


Sociedad Y Tercera cultura

El término sociedad es utilizado indistintamente para referirse a comunidades de animales (hormigas, abejas, topos, primates...) y de seres humanos. La diferencia esencial existente entre las sociedades animales y las humanas es, más allá de su complejidad, la presencia de cultura como rasgo distintivo de toda sociedad humana. Aunque usados a menudo como sinónimos, cultura y sociedad son conceptos distintos: la sociedad hace referencia a la agrupación de personas, mientras que la cultura hace referencia a toda su producción y actividad transmitida de generación en generación a lo largo de la historia incluyendo costumbres, lenguas, creencias y religiones, arte, ciencia, etc. La diversidad cultural existente entre las diferentes sociedades del mundo se debe a la diferenciación cultural que ha experimentado la humanidad a lo largo de la historia debido principalmente a factores territoriales, es decir, al aislamiento e interacción entre diferentes sociedades.


Los habitantes, el entorno y los proyectos o prácticas sociales hacen parte de una cultura, pero existen otros aspectos que ayudan a ampliar el concepto de sociedad y el más interesante y que ha logrado que la comunicación se desarrolle constantemente es la nueva era de la información, es decir la tecnología alcanzada en los medios de producción, desde una sociedad primitiva con simple tecnología especializada de cazadores —muy pocos artefactos— hasta una sociedad moderna con compleja tecnología —muchísimos artefactos— prácticamente en todas las especialidades. Estos estados de civilización incluirán el estilo de vida y su nivel de calidad que, asimismo, será sencillo y de baja calidad comparativa en la sociedad primitiva, y complejo o sofisticado con calidad comparativamente alta en la sociedad industrial. La calidad de vida comparativamente alta es controvertida, pues tiene aspectos subjetivos en los términos de cómo es percibida por las personas.



En la sociedad el sujeto puede analizar, interpretar y comprender todo lo que lo rodea por medio de las representaciones simbólicas que existen en la comunidad. Es decir, los símbolos son indispensables para el análisis social y cultural del espacio en que se encuentra el hombre y a partir de la explicación simbólica de los objetos se puede adquirir una percepción global del mundo.
Por último, la sociedad de masas (sociedad) está integrada por diversas culturas y cada una tiene sus propios fundamentos e ideologías que hacen al ser humano único y diferente a los demás.



E-Commerce vs E-Business

Día a día debemos sumar nuevas palabras a nuestro vocabulario, el e-commerce y el e-business no son la excepción.
Pero uno de los mayores Problemas  que encontramos es que existen tantos términos que terminamos no conociendo la diferencia entre ellos, y muchas veces ni su significado.
Para tratar de entender estos términos iniciare por definir cada uno de ellos intentando con esto dar un panorama sencillo pero suficiente para entender las diferencias básicas entre el e-bunisses y el e-comersce
Usare a lo largo de este resumen los términos e-commerce y comercio electrónico indistintamente, así como e-business y negocios en línea.
Muchas veces se presenta confusión entre los términos e-commerce y e-business, tratándolos como sinónimos y esto no es así. Aunque existe una relación entre ambos no podemos decir que son los mismos términos. Veamos cuales son las definiciones para conocer mejor de lo que estamos hablando.
Las tres definiciones anteriores muestran que resulta difícil dar una definición completamente apropiada para el e-Business. "Definiciones incompletas, sólo para bienes producccion y promocion  venta y distribución de productos  a través de redes de  telecomunicaciones, sólo para servicios (intercambio de información a través de transacciones electrónicas) o sólo desde el punto de vista empresarial (uso de las tecnologías de la información para realizar negocios entre compradores, vendedores y socios con el fin de mejorar el servicio al cliente, reducir costos y finalmente, aumentar el valor de los accionistas) nos conducen a dar una definición más integradora y general tal y como la siguiente:

e-business es la aplicación de las tecnologías de la información para facilitar la compraventa de productos, servicios e información a través de redes públicas basadas en estándares de comunicaciones. Tiene que existir en uno de los extremos de la relación comercial un programa de ordenador y en el otro extremo o bien otro programa de ordenador, o una persona utilizando un ordenador o una persona con los medios  necesarios para acceder a la red". 
El paradigma del e-business, comprende la combinación del Internet con los sistemas de información tradicionales de una organizacion Web + tecnología de información) y permite potenciar los procesos vitales de negocios que constituyen la base y esencia de Una empresa. Las aplicaciones basadas en los conceptos de e-business se caracterizan por ser interactivas, con alta intensidad de transacciones, y porque permiten un relanzamiento de los negocios hacia nuevos Mercados


Computadoras de Alto Rendimiento



El campo de computación de alto rendimiento High performance Computing o HPC en inglés es una herramienta muy importante en el desarrollo de simulaciones computacionales a problemas complejos. Para lograr este objetivo, la computación de alto rendimiento se apoya en tecnologías computacionales como los cluters supercomputadores o mediante el uso de la computación paralela. La mayoría de las ideas actuales de la computación distribuida  se han basado en la computación de alto rendimiento.



Un cluster es una solución computacional estructurada a partir de un conjunto de sistemas computacionales muy similares entre si (grupo de computadoras), interconectados mediante alguna tecnología de red de alta velocidad, configurados de forma coordinada para dar la ilusión de un único recurso; cada uno de estos sistemas estará proveyendo un mismo servicio o ejecutando una (o parte de una) misma aplicación paralela. Un cluster debe tener como característica inherente la compartición de recursos: ciclos de CPU (Central Processing Unit), memoria, datos y servicios.
Los sistemas computacionales (nodos) que conforman el cluster podrían ser computadoras de uno o varios procesadores; estos sistemas podrían estar montados en un rack, ubicados en un espacio dedicado exclusivamente a almacenar computadoras, o en el cubículo de un empleado; lo que cuenta es como están relacionados, como son accesados, y que tipo de aplicación están ejecutando.




Implantes cocleares

El implante coclear es un  producto sanitario implantable activo, de alta tecnología y precisión, encaminado a restablecer la audición de aquellas personas que padezcan una sordera causada por la destrucción de las células ciliadas de la cóclea, estimulando directamente las células ganglionares (nervio auditivo) mediante señales eléctricas encargadas de transmitir la información codificada al cerebro. Hay que recordar que, al ser una prótesis, no cura definitivamente la sordera.
El oído humano es un sistema de órganos que, en su conjunto, tiene la misión captar, codificar y transferir al cerebro la información sonora que emana de la naturaleza. El sistema auditivo está formado por la unión de tres partes diferentes especializadas: el oído externo, el oído medio y el oído interno Es en este último donde se coloca el implante coclear.
La disfunción auditiva origina diferentes escalas de hipoacusias, desde la sordera leve a la total (cofosis). Cada uno de los tres elementos que integra el sistema auditivo realiza una función especializada; si una de las tres partes falla, las partes sanas dejarían de cumplir con su función. El objetivo del implante coclear es reemplazar la función de la coclea dañada, situada en el oído interno, estimulando mediante señales eléctricas directamente el nervio auditivo. Al estimular directamente la cóclea, se vuelven inservibles los componentes del oído externo y medio, siendo estos sustituidos por los componentes externos del implante coclear.

La estimulación eléctrica en la que se basa la tecnología del implante coclear no es novedosa. En 1790, alessandro voltea se colocó unas varillas de metal en ambos oídos y las conectó a una fuente eléctrica. Antes de perder brevemente el conocimiento, escuchó un sonido parecido al burbujeo del agua. A lo largo del s. XIX y hasta la primera mitad del s. XX se siguieron realizando experimentos de este tipo, cada vez más sofisticados, obteniendo sensaciones auditivas en los pacientes.

COMPOCISION DE IMPLANTE COCLEAR

El dispositivo se compone de dos partes: una interna, que se coloca dentro del cráneo del paciente, y una externa, ubicada fuera de él:
Cochlear implant2.jpg
  • Parte interna: Es la parte que requiere cirugía con anestesia general o, en casos excepcionales, con anestesia local  potente. Durante la operación, se colocará el dispositivo transductor con un imán posicionador, haciendo previamente un hueco en el  hueso temporal mediante fresado. Del transductor salen dos hilos: el hilo de masa, alojado en interior del músculo temporal, y un segundo hilo con un juego de electrodos —más uno o dos electrodos de referencia según el modelo— que será introducido, previa apertura de la ventana oval, en la rampa timpánica de la cóclea.
  • Parte externa: Es la parte donde se procesa el sonido y que transmite información codificada del sonido ambiental recogido a la parte interna. La parte externa se coloca un mes después de la operación y consta de dos partes claramente diferenciadas:
    • Procesador de sonidos: Capta la información sonora del ambiente a través del micrófono y la envía al microprocesador, que es el encargado de seleccionar los sonidos útiles y de codificar la información sonora, para posteriormente enviársela a la bobina. Hoy en día se prefieren procesadores de diseño retroauricular, más cómodo de llevar que el procesador en forma de petaca.
    • Bobina: La bobina contiene un imán que, por efecto del campo magnético, la mantiene unida a la parte interna. Esta colabora recogiendo la información codificada del microprocesador y transmitiéndola al transductor por radiofrecuencia que, a su vez, estimulará el nervio auditivo.

Facilidad De Implante Coclear

Los fabricantes aseguran que la parte interna es muy fiable, que está diseñada para que dure toda la vida del individuo implantado, y que además soporta futuras actualizaciones del procesador. El número de fallos técnicos es actualmente muy reducido en relación al número total de implantados, pasando de ser raras a muy raras las averías internas en los implantes cocleares modernos. En algunos casos se han retirado implantes debido a motivos médicos ajenos al funcionamiento del transductor, como el rechazo inmunológico a determinados componentes. Hay que reseñar que todos los implantados deben llevar a cabo una rehabilitación logopédica inicial, cuya duración dependerá de cada persona. En cualquier caso, la parte externa del implante coclear precisa de un mantenimiento regular (por ejemplo, el de la bobina) que, en países como España, se financia parcialmente a través de la Seguridad Social por el procedimiento de retorno de gastos.


Interconexion entre sistemas

Para sistematizar las normas que deben seguir los equipos y las redes al comunicarse y establecer un marco de referencia independiente de los distintos fabricantes y que, por tanto, garantizase la compatibilidad de los sistemas de comunicación, la Organización Internacional de Normalización (ISO), estableció, en los años 80' un modelo al que denominó modelo para la Interconexión de Sistemas Abiertos, cuyas siglas, OSI, hacen referencia a su nombre en inglés. 

El modelo OSI describe una arquitectura jerárquica de 7 niveles y son las normas de comunicaciones en las que se fundamenta el protocolo TCP-IP, la base de Internet. Para explicar cada uno de los niveles del modelo de referencia en relación a la transmisión de paquetes de datos, se suele partir del nivel superior que se llama nivel de Aplicación y es el más cercano al usuario, al que se van añadiendo y aclarando la información correspondiente a cada uno de los siguientes niveles hasta llegar al más básico que da normas para la comunicación física. 

Niveles del modelo: 

Aplicación: Este nivel hace referencia a las normas que deben cumplir los protocolos con relación a las aplicaciones, o servicios. Como por ejemplo, un navegador, un cliente de correo electrónico, un procesador de textos, una hoja de cálculo, una base de datos, etc. El protocolo obliga a las aplicaciones que van a manejarse dentro de una red de transmisión de paquetes, a cumplir unas normas que le permitan hacerse entender por las aplicaciones residentes en otras máquinas de la red 

Presentación: En este nivel se establecen las normas que se deben cumplir en relación a los códigos de caracteres, como ASCII y EBCDIC. Parpadeos, tamaños, etc... Esta información se añade a la del nivel anterior e informa de las características de los datos que maneja una aplicación concreta. 

Sesión: Establece las normas que se deben cumplir en relación a la gestión de las conexiones de las aplicaciones con la Red, son como las normas de cortesía, señalan quien de be hablar, cuando, se debe hacer para pedir la palabra o que el interlocutor preste atención etc. Igualmente, la información relacionada con este nivel, se añade al paquete de datos. 

Transporte: En este nivel se establecen las normas para identificar la procedencia y el destino de los datos que han de ir de un ordenador a otro. La información de este nivel se añade al paquete de datos, donde ya están las de los niveles anteriores. 

Red: En este nivel se establecen las normas a cumplir con relación a la manera en que los paquetes transcurren por la red. La información que se añade al paquete de datos en este nivel, le permitirá moverse a través de todo el entramado que forma red, buscando siempre el mejor camino para llegar a su destino final. 

Nivel de enlace: En este nivel se establecen las normas para conseguir una transmisión fiable y libre de errores. La información añadida en este nivel se utiliza gestionar la comunicación entre dos máquinas de la red, enlazándolas entre las distintas máquinas por las que van pasando los paquetes de datos. 

Nivel físico: En este nivel se establecen las normas que deben cumplir los protocolos con relación a las características físicas de todos los componentes relacionados con la transmisión de datos a través de toda la red: estándares de módem, líneas de transmisión, controladores de comunicaciones, etc.




Ventilador

Se utiliza para desplazar aire o gas de un lugar a otro, dentro de o entre espacios, para Motivos industriales o uso residencial, para ventilación o para aumentar la circulación de aire en un espacio habitado, básicamente para refrescar. Por esta razón, es un elemento indispensable en climas cálidos.
En energía, los ventiladores se usan principalmente para producir flujo de gases de un punto a otro; es posible que la conducción del propio gas sea lo esencial, pero también en muchos casos, el gas actúa sólo como medio de transporte de calor, humedad, etc; o de material sólido, como cenizas, polvos, etc.
Entre los ventiladores y compresores existen diferencias. El objeto fundamental de los primeros es mover un flujo de gas, a menudo en grandes cantidades, pero a bajas presiones; mientras que los segundos están diseñados principalmente para producir grandes presiones y flujos de gas relativamente pequeños. En el caso de los ventiladores, el aumento de presión es generalmente tan insignificante comparado con la presión absoluta del gas, que la densidad de éste puede considerarse inalterada durante el proceso de la operación; de este modo, el gas se considera incompresible como si fuera un líquido. Por consiguiente en principio no hay diferencia entre la forma de operación de un ventilador y de una bomba de construcción similar, lo que significa que matemáticamente se pueden tratar en forma análoga.

Suele haber circulación de aire o ventilación a través de los huecos en las paredes de un edificio, en especial a través de puertas y ventanas. Pero esta ventilación natural, quizá aceptable en viviendas, no es suficiente en edificios públicos, como oficinas, teatros o fábricas. Los dispositivos de ventilación más sencillos utilizados en lugares donde se necesita mucha ventilación son ventiladores instalados para extraer el aire viciado del edificio y favorecer la entrada de aire fresco. Los sistemas de ventilación pueden combinarse con calentadores, filtros, controladores de humedad y dispositivos de refrigeración.

*Industriales: Centrífugos, Helicocentrífugos, Helicoidales de distintas presiones y caudales
*De pared: son fijados en la pared, permitiendo una mayor circulación en lugares pequeños, donde el uso de ventiladores no es soportado debido a la largura del ambiente, o en conjunto con otros ventiladores, proporcionando una mayor circulación de aire.
*De mesa: son ventiladores de baja potencia utilizados especialmente en oficinas o en ambientes donde necesitan poca ventilación.
*De piso: son portátiles y silenciosos, posibilitan que sean colocados en el suelo en cualquier ambiente de una casa, pudiendo ser trasladados a cualquier parte. Podemos encontrarlos en varios modelos y formas.
*De techo: son ventiladores verticales, sus aspas están en posición horizontal, y por lo tanto el aire va hacia abajo. Muy comunes, utilizados en habitaciones donde no hay espacio disponible en las paredes o el suelo, pueden ser muy peligrosos si no están correctamente fijados al techo.


Vida Artificial Y Robotica

El área de vida artificial es un punto de encuentro para gente de otras áreas más tradicionales como lingüística, física, matemáticas, psicología, ciencias de computación biología, antropología y sociología en las que sería inusual que se discutieran enfoques teóricos y computacionales. Como área, tiene una historia controvertida; jhon maynar smith criticó ciertos trabajos de vida artificial en 1995 calificándolos de "ciencia sin hechos", y generalmente no ha recibido mucha atención de parte de biólogos. Sin embargo, la reciente publicación de artículos sobre vida artificial en revistas de amplia difusión, como sciencie y nature son evidencia de que las técnicas de vida artificial son cada vez más aceptadas por los científicos, al menos como un método de estudio de la evolución.


APLICACIONES:

Las aplicaciones de la vida artificial se pueden encontrar en alguno de estos casos:
  • Los sistemas complejos adaptativos, que han dado paso a una nueva generación de sistemas expertos , que son capaces de aprender y evolucionar.
  • Los autómatas celulares, que imitan funciones de los organismos celulares en programas complejos, aplicando el conocimiento biológico de los mismos a principios prácticos de organización en sistemas de cómputo.
  • Los agentes autónomos, que son cada día más usados en aplicaciones de búsqueda.

En algunos campos de aplicación de la vida artificial se plantean dos tipos de simulaciones, basadas en el mundo real, las cuales ayudan a la toma de decisiones. Estas son:
  • La primera de ellas, se centra en los aspectos de "más alto nivel" en cada problema, utilizando formulas y reglas, o hechos históricos, que ayudan a la toma de decisiones. Un ejemplo de esto pueden ser las fórmulas del tiro parabólico , ya que estas pueden entenderse como modelos de simulación.
  • La segunda pone atención en los aspectos de "más bajo nivel", mediante fórmulas o reglas. Una de las ventajas de este tipo de simulaciones es que sus características son más sencillas, ya que suelen ser más fáciles de detectar los aspectos de bajo nivel que aquellos de alto nivel.

Vida Robotica
Por siglos el ser humano ha construido maquinas que imiten las partes del Cuerpo Humano . Los antiguos egipcios unieron brazos mecánicos a las estatuas de sus dioses. Estos brazos fueron operados por sacerdotes, quienes clamaban que el  movimiento  de estos era inspiración de sus dioses. Los griegos construyeron estatuas que operaban con sistemas  hidráulicas, los cuales se utilizaban para fascinar a los adoradores de los templos.

acques de Vauncansos construyó varios músicos de tamaño humano a mediados del siglo XVIII. Esencialmente se trataba de robots mecánicos diseñados para un propósito específico: la diversión.

Una obra checoslovaca publicada en 1917 por Karel Kapek, denominada Rossum’s Universal Robots, dio lugar al término robot. La palabra checa ‘Robota’ significa servidumbre o trabajador forzado, y cuando se tradujo al ingles se convirtió en el término robot. Dicha narración se refiere a un brillante científico llamado Rossum y su hijo, quienes desarrollan una sustancia química  que es similar al protoplasma. Utilizan ésta sustancia para fabricar robots, y sus planes consisten en que los robots sirvan a la clase humana de forma obediente para realizar todos los trabajos físicos. Rossum sigue realizando mejoras en el diseño  de los robots, elimina órganos y otros elementos innecesarios, y finalmente desarrolla un ser ‘ perfecto ’. El argumento experimenta un giro desagradable cuando los robots perfectos comienzan a no cumplir con su papel de servidores  y se rebelan contra sus dueños, destruyendo toda la vida humana.
Estos principios fueron denominados por Asimov las Tres Leyes de la Robótica, y son:
  1. Un robot no puede actuar contra un ser humano o, mediante la inacción, que un ser humano sufra daños.
  2. Un robot debe de obedecer las ordenes dadas por los seres humanos, salvo que estén en conflictos con la primera ley 
  3. Un robot debe proteger su propia existencia, a no ser que esté en conflicto  con las dos primeras leyes

                                           

Realidad Virtual

Es un sistema tecnologico, basado en el empleo de ordenadores y otros dispositivos, cuyo fin es producir una apariencia de la realidad que permita al usuario tener la sensación de estar presente en ella. Se consigue mediante la generación por ordenador de un conjunto de imágenes que son contempladas por el usuario a través de un casco provisto de un visor especial. Algunos equipos se completan con trajes y guantes equipados con sensores diseñados para simular la percepción de diferentes estímulos, que intensifican la sensación de realidad. Su aplicación, aunque centrada inicialmente en el terreno de los videojuegos, se ha extendido a otros muchos campos, como la medicina o las  simulaciones de vuelo



La realidad virtual permite la generación de entornos de interacción que separen la necesidad de compartir el espacio-tiempo, facilitando en este caso nuevos contextos de intercambio y comunicación.
Autores como Lévy, han señalado la existencia de diferentes niveles de virtualidad en su relación con la dimensión bidimensional/tridimensional y su relación con la realidad.

 La amplia variedad de posibilidades que ésta ofrece, ha facilitado el establecimiento de un estatus de realidad, sustentado fundamentalmente en tres aspectos:
  • La realidad virtual es compartida con otras personas. Se centra generalmente en la interacción interpersonal, que a pesar de no producirse en el mismo espacio-tiempo, si es percibida como un acto colectivo.
  • Tiene una estrecha relación con el mundo físico dada su interrelación e influencia mutua. La experiencia en la realidad virtual viene mediada por la experiencia en el mundo real y ésta es influida por lo que allí es experimentado.
  • Está interconectada con la producción artística, ya que se convierte en un espacio más de creación con motivaciones estéticas.
La realidad virtual no inmersiva ofrece un nuevo mundo a través de una ventana de escritorio. Este enfoque no inmersivo tiene varias ventajas sobre el enfoque inmersivo como son el bajo coste y fácil y rápida aceptación de los usuarios. Los dispositivos inmersivos son de alto coste y generalmente el usuario prefiere manipular el ambiente virtual por medio de dispositivos familiares como son el teclado y el ratón que por medio de cascos pesados o guantes.


Revolucion de la informatica

Hoy, la misma cantidad de poder de cómputo se encuentra contenido en un pequeño circuito integrado de silicio, o microprocesador. Actualmente, casi cualquier computadora personal, costando alrededor de 100 dólares, es capaz de sobrepasar por mucho el desempeño de la ENIAC. Esto resulta sorprendente, ya que si otras industrias, como por ejemplo la automotriz o aeronáutica, se hubieran desarrollado en forma similar a la industria de la computación, un Rolls-Royce costaría 2.75 dólares y recorrería 3 millones de millas con un galón de gasolina. Y un Boeing 767 costaría sólo 500 dólares y podría dar la vuelta al mundo en 20 minutos con 5 galones de combustible.
Esta dramática reducción en los costos de poder de cómputo ha coincidido con la conversión de señales analógicas a señales digitales en la industria de las telecomunicaciones. Básicamente, las señales digitales siguen la misma técnica de ``flujo de números'', usada en computación. El resultado ha sido una convergencia de innovaciones tecnológicas en electrónica, computación y telecomunicaciones, llamada por algunos científicos la ``Revolución Informática''. Esta revolución no se encuentra restringida únicamente al mundo de la ciencia y tecnología, sino que trae consigo sorprendentes cambios en la forma en que vivimos y trabajamos, y quizá, hasta cómo pensamos.
Informática es, en el sentido más estricto, la nueva ciencia de recolectar, almacenar, procesar y transmitir información. Es posible considerar su impacto social por la cantidad de personas involucradas directa o indirectamente en tales actividades. Sin embargo, aún cuando el número de personas que se encuentran directamente empleadas en actividades informáticas es relativamente pequeño respecto al total de la fuerza de trabajo, si consideramos actividades que indirectamente dependen de la informática, como las actividades bancarias y de seguros, de los gobiernos centrales y locales, así como educación y entrenamiento, es claro que un buen porcentaje de la fuerza de trabajo gira alrededor de la informática. Y dado que todos utilizamos información en algún momento, eventualmente no habrá nadie que no sea afectado por la Revolución Informatica, ya que finalmente, información es el flujo vital de las sociedades industriales modernas.


 partir de la invención del primer microprocesador en 1971, y la produccion en masa de computadoras personales hasta inicios de los ochenta, podemos considerar que el desarrollo en tecnología informática se ha realizado en forma sobresaliente debido a cuatro razones fundamentales:
  • Primero, el software ha ganado en importancia al hardware. La explosión actual de la industria del software no solo ha creado millonarios, sino que además está manteniendo el ritmo del propio cambio generado por la Revolución Informática.
  • Segundo, el extraordinario desarrollo de la computadora personal desde su introducción al mercado por IBM ha permitido la entrada de poder de cómputo barato en el hogar, oficinas, escuelas y fábricas. Era de esperarse, por lo tanto, que la computadora personal se convirtiera en la piedra angular sobre la cual se desarrolla la Revolución Informática.
  • Tercero, el desarrollo e investigación de una generación de nuevas computadoras, las ``supercomputadoras'', apoyadas en nuevos elementos de microelectrónica, ha hecho que corporaciones y gobiernos hayan realizado fuertes inversiones en el desarrollo de estos sistemas.
  • Cuarto, la creciente expansión de los sistemas globales de telecomunicacion ha hecho posible la creacion de la ``World Wide Web''(WWW), en forma de redes digitales de computadoras, así como el desarrollo de nuevos y baratos dispositivos de comunicación alrededor de ella. Por sí misma, la WWW, junto con las comunicaciones satelitales, la televisión por cable, y la telefonía celular, estan revolucionando la forma en que recibimos entretenimiento y noticias, cómo trabajamos, compramos y realizamos transacciones financieras.

lunes, 3 de octubre de 2011

Materiales Para El Manejo De Metal

Metal:
 en disolución.
Metal se usa para denominar a los  elementos químicos  caracterizados por ser buenos conductores del calor y la electricidad, poseen alta densidad y son sólidos en temperaturas normales (excepto el mercurio ); sus sales forman Iones  electropositivos Cationes
La Ciencia de materiales define un metal como un material en el que existe un solape entre la banda de valencia y la banda de conducción en su estructura electrónica (enlace metálico). Esto le da la capacidad de conducir fácilmente calor y electricidad, y generalmente la capacidad de reflejar la luz, lo que le da su peculiar brillo. En ausencia de una estructura electrónica conocida, se usa el término para describir el comportamiento de aquellos materiales en los que, en ciertos rangos de presión  y temperatura, la conductividad eléctrica disminuye al elevar la temperatura, en contraste con los semiconductores.
HISTORIA
Metales como el Oro, la Plata y el Cobre , fueron utilizados desde la Prehistoria. Al principio, sólo se usaron los que se encontraban fácilmente en estado Puro (en forma de elementos nativos), pero paulatinamente se fue desarrollando la tecnología necesaria para obtener nuevos metales a partir de sus menas, calentándolos en un Homo mediante Carbón de madera 
El primer gran avance se produjo con el descubrimiento del Bronce, fruto de la utilización de mineral de cobre con incursiones de Estaño, entre 3500 A.C. y 2000 A.C., en diferentes regiones del planeta, surgiendo la denominada Edad de bronce, que sucede a la Edad de piedra
Otro hecho importante en la historia fue la utilización del Hierro, hacia 1400 A.C. Los Hititas fueron uno de los primeros pueblos en utilizarlo para elaborar Armas, tales como Espadas, y las civilizaciones que todavía estaban en la Edad del Bronce, como los Egipcios o los Aqueos, pagaron caro su atraso tecnológico
PROPIEDADES:
Los metales poseen ciertas propiedades físicas características, entre ellas son Conductores de la electricidad. La mayoría de ellos son de color grisáceo, pero algunos presentan colores distintos; el Bismuto (Bi) es rosáceo, el cobre (Cu) rojizo y el oro (Au) amarillo. En otros metales aparece más de un color; este fenómeno se denomina policrosismo 
Otras propiedades serían:
  • Maleabilidad: capacidad de los metales de hacerse láminas al ser sometidos a esfuerzos de compresión.
  • Ductilidad: propiedad de los metales de moldearse en alambre e hilos al ser sometidos a esfuerzos de tracción.
  • Tenacidad: resistencia que presentan los metales a romperse o al recibir fuerzas bruscas (golpes, etc.)
  • Resistencia mecánica: capacidad para resistir esfuerzo de tracción, comprensión, torsión y flexión sin deformarse ni romperse.
  • Los metales tienen ciertas propiedades físicas características: a excepción del mercurio son sólidos en condiciones ambientales normales, suelen ser opacos y brillantes, tener alta densidad, ser dúctiles y maleables, tener un punto de fusión alto, ser duros, y ser buenos conductores del calor y la electricidad.
  • Estas propiedades se deben al hecho de que los electrones exteriores están ligados sólo «ligeramente» a los Átomos , formando una especie de gas (también llamado «gas electrónico», «nube electrónica» o «mar de electrones»), que se conoce como Enlace Metálico. Drude y Lorentz, propusieron este modelo hacia 1900.1
    Mediante la teoría del «gas electrónico» podemos explicar por que los metales son tan buenos conductores del calor y la electricidad, pero es necesario comprender la naturaleza del enlace entre sus átomos.
    OBTENCIÓN:
    Los metales alcalinos, además del BENILIO  y el MAGNESIO , se suelen extraer a partir de los cloruros depositados debido a la evaporación de mares y lagos, aunque también se extrae del agua del mar. El ejemplo más característico es el cloruro sódico o sal común, NaCl.
    Algunos metales alcalino-térreos, el CALCIO, el ESTRONCIO  y el BARIO, se obtienen a partir de los carbonatos insolubles en los que están insertos.
    Por último, los lantánidos y actínidos se suelen obtener a partir de los fosfatos, que son unas sales en las que pueden estar incluidos.
USOS EN LA INDUSTRIA
Metales que están destinados a un uso especial, son el ANTIMONIO el CADMIO  o el LITIO
Los pigmentos amarillos y anaranjados del cadmio son muy buscados por su gran ESTABILIDAD, como protección contra la CORROSION, para las soldaduras y las aleaciones correspondientes y en la fabricación de baterías de NÍQUEL y cadmio, consideradas excelentes por la seguridad de su funcionamiento. También se le utiliza como estabilizador en los materiales plásticos PVC y como aleación para mejorar las características mecánicas del alambre de COBRE. Su producción se lleva a cabo en el momento de la refinación de ZINC, con el que está ligado, se trata de un contaminante peligroso.
El LITIO, metal ligero, se emplea principalmente en la cerámica y en los cristales, como catalizador de polimerización y como lubricante, así como para la obtención del ALUMINIO mediante electrólisis. También se emplea para soldar, en las pilas y en las baterías para relojes, en medicina (tratamiento para los maníaco-depresivos) y en química.
El níquel, a causa de su elevada resistencia a la corrosión, sirve para NIQUELAR  los objetos metálicos, con el fin de protegerlos de la oxidación y de darles un brillo inalterable en la intemperie.
El denominado "hierro blanco" es, en realidad, una lamina de ACERO dulce que recibe un baño de CLORURO DE ZINC fundido, y a la que se da después un revestimiento especial de ESTAÑO


DILATACIONES DE METALES
Los metales son materiales que tienen una elevada DILATACION, en parte debido a su conductibilidad. Las dilataciones son perceptibles a veces aún con los cambios de temperatura ambiental. Se miden linealmente y se fija la unidad de longitud para la variación de 1° C de temperatura. Maleabilidad es la propiedad de los metales de poder ser modificados en su forma y aun ser reducidos a láminas de poco espesor a temperatura ambiente, por presión continua, martillado o estirado. Produciendo las modificaciones en el metal, se llega a un momento en que el LIMITE DE ELASTICIDAD es excedido, tornándose el metal duro y quebradizo; es decir, sufre deformaciones cristalinas que lo hacen frágil. La maleabilidad puede ser recuperada mediante el recocido, que consiste en calentar el metal a una alta temperatura luego de laminado o estirado, y dejarlo enfriar lentamente. La maleabilidad se aprecia por la sutileza del laminado. Tomando el oro como base, se suele hacer la siguiente clasificación:  Oro.  Plata.  Cobre.  Aluminio.  Estaño. Platino. Plomo.  Zinc.  Hierro.  Níquel.