API - Resumen Completo (2da Parte)
API - Resumen Completo (2da Parte)
API - Resumen Completo (2da Parte)
TippingPoint es el proveedor líder de la red basada en sistemas de prevención de intrusiones para las
empresas, organismos gubernamentales, proveedores de servicios e instituciones académicas.
TippingPoint ha sido el pionero IPS mercado, ya que puso en marcha la primera red basada en el
sistema de prevención de intrusos en 2002, y continua lleva a la industria por ser el primero en el
mercado de IPS con innovadoras características, tales como programas espía y protección multi-gigabit
rendimiento. TippingPoint es el único sistema de prevención de intrusiones para ofrecer VoIP de
seguridad, gestión de ancho de banda, Peer-to-Peer protección, y por defecto "Configuración
recomendada" para bloquear con precisión el tráfico malicioso automáticamente a la instalación sin
afinación.
Algunas características:
• En toda la empresa la presentación de informes y análisis de tendencias
• En un vistazo salpicadero
• Dispositivo de configuración y supervisión
• creación automática de informes
• Automatizado de los mecanismos de respuesta de seguridad
1.2 Generalidades
Surface es esencialmente un computador dentro de una base de mesa negra. En la parte superior hay
una pantalla táctil (touchscreen) de 30 pulgadas empotrado en una mesa de dimensiones de 56 cm de
alto, 53 cm de profundidad y 107 cm de ancho. La parte superior de Surface es de acrílico y su marco
interior está revestido de polvo de acero. El software corre bajo Windows Seven y posee conexión
Ethernet, WiFi y Bluetooth. Cinco cámaras que se encuentran debajo pueden detectar los objetos que se
acercan a la pantalla. Los usuarios pueden interactuar con el computador tocando o desplazando sus
dedos y objetos como pinceles a través de la pantalla o con elementos del mundo real marcados con
etiquetas RFID. Además, está compuesto por un Core 2 Duo con 2GB de RAM y tarjeta gráfica de 256
MB, Proyector DLP similar al que utilizan los televisores HDTV.
1.5 Desventajas
- Ergonomía
- Uso primordial para usuarios finales
- Aplicaciones limitadas
- Precio
- Tamaño
El acceso a la información ha alcanzado un desarrollo sin precedentes. Internet y redes han puesto en
comunicación al mundo. Ahora más que nunca, es necesario proteger la información digital.
Entenderemos por sistema biométrico a un sistema automatizado que realiza labores de biometría. Es
decir, un sistema que fundamenta sus decisiones de reconocimiento mediante una característica
personal que puede ser reconocida o verificada de manera automatizada. En esta sección son descritas
algunas de las características más importantes de estos sistemas.
La biometría es una herramienta que utiliza rasgos morfológicos únicos en cada individuo, como su
huella digital, rostro o iris. Esta tecnología de punta es utilizada para el reconocimiento de la identidad de
los usuarios ya sean empleados o clientes de su entidad.
Otros puntos singulares de una huella dactilar son aquellos donde la curvatura de los ridges es máxima.
Esos puntos reciben el nombre de cores y deltas. La característica más interesante que presentan tanto
las minucias como los puntos singulares cores y deltas es que son únicos para cada individuo y
permanecen inalterados a través de su vida.
1. En una imagen de calidad hay alrededor de 70 a 80 minucias en promedio, cantidad que contrasta
abiertamente con las presentes en una imagen latente o parcial cuyo valor promedio es del orden de 20 a
30.
2. Hay traslaciones, rotaciones y deformaciones no lineales de las imágenes que se heredan a las
minucias.
3. Aparecen minucias espurias, mientras otras verídicas desaparecen.
4. La base de datos puede ser muy grande.
5. No existe un método de comparación que entregue una coincidencia exacta entre las características de
la imagen de entrada y las pertenecientes a la base de datos.
Este postula la existencia de tres indicadores de identidad que definen el proceso de identificación:
1. Conocimiento: la persona tiene conocimiento (por ejemplo: un código),
2. Posesión: la persona posee un objeto (por ejemplo: una tarjeta), y
3. Característica: la persona tiene una característica que puede ser verificada (por ejemplo: una de sus
huellas dactilares).
Un indicador biométrico es alguna característica con la cual se puede realizar biometría. Cualquiera sea
el indicador, debe cumplir los siguientes requerimientos:
1. Modo de verificación, o
2. Modo de identificación
La información provista por los templates permite particionar su base de datos de acuerdo a la presencia
o no de ciertos patrones particulares para cada indicador biométrico. Las "clases" así generadas
permiten reducir el rango de búsqueda de algún template en la base de datos. Sin embargo, los
templates pertenecientes a una misma clase también presentarán diferencias conocidas como
variaciones intraclase. Las variaciones intraclase implican que la identidad de una persona puede ser
establecida sólo con un cierto nivel de confianza. Una decisión tomada por un sistema biométrico
distingue "personal autorizado" o "impostor". Para cada tipo de decisión, existen dos posibles salidas,
verdadero o falso. Por lo tanto existe un total de cuatro posibles respuestas del sistema:
1. Rostro,
2. Termograma del rostro,
3. Huellas dactilares,
4. Geometría de la mano,
5. Venas de las manos,
6. Iris,
7. Patrones de la retina,
8. Voz,
9. Firma.
Cada una de las técnicas anteriores posee ventajas y desventajas comparativas, las cuales deben
tenerse en consideración al momento de decidir que técnica utilizar para una aplicación específica. En
particular deben considerarse las diferencias entre los métodos anatómicos y los de comportamiento.
Una huella dactilar, salvo daño físico, es la misma día a día, a diferencia de una firma que puede ser
influenciada tanto por factores controlables como por psicológicos no intencionales.
Huellas Dactilares
2) Ser "ECONOMICOS" para que estén al alcance de cualquier bolsillo o persona normal como usted o
como yo, utilizando materiales elaborados con la tecnología mas vanguardista, en los campos de la
manufactura plástica, metálica y eléctrica, con materiales muy sofisticados pero a la vez muy
económicos.
Su GPS no sólo lo dirige a una estación de esquí, sino también le imprime un ticket de de entrada y
cupones para alimentos en el restaurante.
Un marco de foto digital no sólo muestra una foto de su nuevo bebé, sino también le ayuda a utilizar sus
fotos para modificarlas e imprimirlas.
Con la tecnología ZINK ™, todo esto y más puede ser posible. En el mundo ZINK, cuando usted tiene el
deseo de mantener una copia impresa de cualquier contenido digital que desee en sus manos, todo lo
que se necesita es el toque de un botón. Su ordenador portátil será capaz de imprimir, su Xbox360 será
capaz de imprimir, su televisor será capaz de imprimir, en fin cualquier electrodoméstico puede llegar a
ser capaz de imprimir.
En el mundo ZINK, el toque de un botón de impresión aporta una experiencia completamente nueva
dando como resultado toda una nueva sensación de libertad, espontaneidad y un montón de sonrisas.
¿Qué es ZINK ™?
ZINK ™ está a favor de Cero Tinta ™ una sorprendente nueva forma de imprimir a todo color sin
necesidad de cartuchos de tinta o cintas. La tecnología permite una nueva categoría de dispositivos de
impresión a color, combinado con el papel, convirtiéndose en un sistema para imprimir de una forma
totalmente nueva.
La tecnología ZINK se basa en los avances de la química, la ingeniería, la física, la imagen de la ciencia,
y la fabricación. ZINK fue desarrollado a lo largo de varios años y ha generado una cartera de propiedad
intelectual que incluye más de 100 patentes y patentes pendientes. Y el desarrollo de la próxima
generación de ZINK continúa en crecimiento en los laboratorios especializados a diario.
A través de un avanzado proceso de fabricación, el ZINK ™ forma capas de color que están recubiertas
de un fino color de varias capas "pila" en una capa de base. El espesor total de todas las capas
combinado es de aproximadamente el grosor de un cabello humano. El cian, magenta, y amarillo son
capas de cristal incoloro a temperatura ambiente y se activan por el calor durante el proceso de impresión
para crear el color.
Obtener ZINK
El primer producto ZINK ™ habilitado es la Polaroid Pogo ™ Mobile Printer instantánea, y papel
compatibles con ZINK ™,
Y hay más ZINK habilitado para los productos por venir
ESTADOS UNIDOS
INGLATERRA
FRANCIA
ALEMANIA
ESPAÑA
Precios Actuales
Impresora $99.95
Impresora fotográfica portátil que ofrece imágenes que se secan instantáneamente.
Características automáticas de optimización de la calidad de la imagen con resistencia al agua, a prueba
de rotura y manchas.
Imprime páginas de 2 x 3 pulgadas sin bordes en imágenes en color en virtud de un minuto.
Con capacidad inalámbrica Bluetooth interfaz de disco duro, interfaz USB 2.0
Para uso con cámaras digitales y teléfonos celulares.
Se trata de una arquitectura diseñada para servir de soporte al desarrollo de sistemas y aplicaciones
altamente disponibles. Está compuesta de un Gestor de Invocaciones a Objetos (ORB) altamente
disponible con soporte a objetos replicados y diversos servicios relacionados con transacciones
distribuidas, control de concurrencia y recolección de residuos. El diseño se ha realizado para permitir la
inclusión de Hidra como parte del núcleo de un sistema operativo, permitiendo construir, no sólo
aplicaciones altamente disponibles, sino también componentes del sistema operativo que permitan el
desarrollo futuro de un sistema operativo distribuido que ofrezca la imagen de sistema único.
Hidra proporciona el concepto de objeto como la pieza básica con la que se construirán las aplicaciones.
Los objetos podrán estar replicados o ser objetos normales de implementación única. La ubicación de los
objetos y su condición de replicados es transparente a los usuarios de dichos objetos, garantizando en el
caso de los objetos replicados una mayor disponibilidad. El sistema incluye recolección de residuos para
todos los objetos, permitiendo el desarrollo de sistemas que no consuman más recursos que los
estrictamente necesarios, sin la sobrecarga que le supondría al programador realizar tal tarea sin
soporte.
Hidra está compuesta por dos partes fundamentales: el soporte a objetos y el soporte a un modelo
específico de replicación, el modelo coordinador-cohorte.
Sistemas distribuidos
Un sistema distribuido es aquel que ofrece a los usuarios la imagen de un único sistema centralizado,
pero que se ejecuta en múltiples e independientes CPUs. La clave principal es la transparencia. En otras
palabras, el uso de múltiples ordenadores debe ser invisible al usuario, el usuario ve al sistema como un
“uniprocesador virtual”.
La arquitectura Hidra
Hidra es una arquitectura diseñada para servir de soporte al desarrollo de servicios altamente disponibles
en un cluster.
Un cluster Hidra estará formado por un conjunto de nodos interconectados con una red. Cada nodo
ejecutará su propio núcleo de sistema operativo que ofrecerá unos servicios básicos a Hidra, e Hidra
proporcionará a su vez servicios de alta disponibilidad a las aplicaciones que se construyan sobre ella.
Las aplicaciones podrán residir en procesos de usuario o en el propio sistema operativo. Esta última
posibilidad es la que permitirá construir servicios propios del sistema operativo de forma altamente
disponible, con el objetivo final de construir un sistema operativo distribuido con imagen de sistema
único.
Los servicios que necesita Hidra del núcleo del sistema operativo son los típicos ofrecidos por la mayoría
de núcleos actuales. NanOS es un ejemplo válido de núcleo sobre el que implantar Hidra y sobre el que
ya se han realizado algunos trabajos de integración con Hidra. También se podrían utilizar sistemas
operativos convencionales como Linux, Solaris, etc.
En cualquier caso, los servicios mínimos que debe ofrecer el núcleo a Hidra son: el concepto de tarea,
dominio de protección (o proceso), mecanismos de llamada al sistema (downcall) y de invocación desde
el sistema operativo hacia los procesos (upcall), mecanismo de sincronización entre tareas, gestión de
memoria, y primitivas de envío y recepción de mensajes por la red (transporte no fiable). Además es
conveniente que se disponga de un mecanismo para incluir módulos en el propio núcleo, ya que Hidra en
sí misma formará parte del núcleo para mejorar en eficiencia y aumentar la seguridad y estabilidad del
sistema.
Niveles y componentes de la arquitectura
Tal y como puede observarse en la figura, la arquitectura Hidra está formada por varios niveles y
componentes. Cada nivel utiliza los servicios de los niveles inferiores y ofrece servicios a los niveles
superiores, enmascarando en varios de ellos la aparición de determinados tipos de fallos.
1 Transporte no fiable El nivel de transporte no fiable, permite enviar mensajes a cualquier nodo del
clúster Hidra, utilizando para ello su identificador de nodo.
La arquitectura Hidra
2 Monitor de pertenencia a Hidra
Sobre el nivel de transporte no fiable se apoya un protocolo de pertenencia a grupos ampliado con
servicios adicionales. Esta componente constituye el monitor de pertenencia a Hidra (HMM). Este monitor
mantiene qué nodos forman parte del clúster Hidra, permitiendo que simultáneamente se produzcan
nuevas incorporaciones al clúster y detectando qué nodos han caído.
3 Transporte fiable
Este nivel, que se construye sobre el nivel de transporte no fiable y sobre el monitor de pertenencia a
Hidra, elimina duplicidades en los mensajes y evita las pérdidas de mensajes de forma similar a como lo
haría cualquier protocolo de transporte orientado a conexión (TCP). Con ello, los errores transitorios más
frecuentes de los canales de comunicación son eliminados.
4 Gestor de invocaciones a nodo remoto
Por encima del nivel de transporte fiable, una fina capa implementa un nivel de llamada a nodo remoto
sencillo. No llega a ser llamada a procedimiento remoto pues este nivel no se encarga de empaquetar ni
de desempaquetar argumentos. Tan sólo se encarga de enviar un mensaje a un destino, bloqueando a la
tarea invocadora hasta que llegue la respuesta.
5 Transporte de lotes de mensajes
Hidra dispone de un protocolo distribuido de cuenta de referencias que permite detectar residuos. Este
protocolo es totalmente asíncrono y de prioridad baja. Que sea totalmente asíncrono significa que
funciona correctamente sea cual sea el retardo que sufran sus mensajes y sea cual sea el orden en el
que se entreguen éstos en su destino.
6 Gestor de invocaciones a objeto
El nivel más elevado de la arquitectura Hidra lo constituye un gestor de invocaciones a objeto (ORB) con
soporte para objetos replicados y recolección de residuos. El ORB es multitarea y multidominio, no utiliza
protocolos de comunicación a grupos con orden causal ni total, ni tan siquiera multienvíos atómicos. Tan
sólo utiliza mensajes punto a punto fiables y multienvíos no atómicos con orden FIFO.
Middleware
Middleware es un software de computadora que conecta componentes de software o aplicaciones para
que puedan intercambiar datos entre éstas. Es utilizado a menudo para soportar aplicaciones
distribuidas. Esto incluye servidores web, servidores de aplicaciones, sistemas de gestión de contenido y
herramientas similares. Middleware es especialmente esencial para tecnologías como XML, SOAP,
servicios web y arquitecturas orientada a servicios.
La funcionalidad de middleware es la siguiente
1. Ocultar la distribución de los componentes individuales de un sistema
2. Ocultar la heterogeneidad (de software, hardware, protocolos)
3. Proporcionar alto nivel para interfaces de programación de desarrolladores
4. Suministro de un conjunto de servicios comunes
CORBA
Es una arquitectura para la construcción de gestores de invocaciones a objeto. Se trata de un estándar
promovido por la OMG (Object Management Group) para facilitar el desarrollo de ORBs que sean
interoperables entre ellos, de forma que se puedan construir aplicaciones distribuidas orientadas a objeto
sin necesidad de que la implementación sea dependiente de la empresa que comercialice el ORB, ni del
ORB en sí mismo. La especificación CORBA no da detalles de cómo deben construirse los ORBs,
limitándose a especificar la funcionalidad que deben ofrecer en base al cumplimiento de interfaces
especificadas en IDL.
ENERGIAS RENOVABLES: ENERGIA EOLICA Y
ENERGIA SOLAR
ENERGIA ALTERNATIVA:
Una energía alternativa, o más precisamente una fuente de energía alternativa es aquella que puede
suplir a las energías o fuentes energéticas actuales, ya sea por su menor efecto contaminante, o
fundamentalmente por su posibilidad de renovación (conocida como energía renovable).
ENERGÍA EÓLICA:
Es la energía cinética o de movimiento que contiene el viento, y que se capta por medio de
aerogeneradores o molinos de viento (principalmente para producir energía eléctrica. Para poder
aprovechar la energía eólica es importante conocer las variaciones diurnas y nocturnas y estacionales de
los vientos, etc. Para poder utilizar la energía del viento, es necesario que este alcance una velocidad
mínima de 12 km/h, y que no supere los 65 km/h.
El término eólico viene del latín Aeolicus, perteneciente o relativo a Eolo, dios de los vientos en la
mitología griega. La energía eólica ha sido aprovechada desde la antigüedad para mover los barcos
impulsados por velas o hacer funcionar la maquinaria de molinos al mover sus aspas.
FUNCIONAMIENTO DE UN AEROGENERADOR
De forma general un aerogenerador de viento funciona de la siguiente manera:
El viento hace girar las palas produciendo energía mecánica. Esta energía se multiplica
en el interior del aerogenerador y mediante un mecanismo de engranajes, se transmite
hasta el generador, donde se produce la conversión de energía mecánica en energía
eléctrica.
VENTAJAS:
Energía limpia e inagotable: La energía del viento no produce ninguna emisión contaminante y no se
agota en un cierto plazo.
Es una de las fuentes más baratas, puede competir en rentabilidad con otras fuentes energéticas
tradicionales como las centrales térmicas de carbón (considerado tradicionalmente como el
combustible más barato), las centrales de combustible e incluso con la energía nuclear, si se
consideran los costos de reparar los daños medioambientales.
DESVENTAJAS:
1. El aire al ser un fluido de pequeño peso específico, implica fabricar máquinas grandes y en
consecuencia caras. Su altura puede igualar a la de un edificio de diez o más plantas, en tanto que la
envergadura total de sus aspas alcanza la veintena de metros, lo cual encarece su producción.
2. Un impacto negativo es el ruido producido por el giro del rotor, siempre que estemos muy próximos a
los molinos.
Se encargan de "recibir" el viento. Estas palas de gran tamaño aceleran según las condiciones del
viento.
Caja de engranajes:
Aquí se transforma la velocidad de giro de las palas. De baja a alta depende de las condiciones del
viento ya que a mayor velocidad, mayor cantidad de energía eléctrica que se produce.
Generador:
Es el encargado de producir la electricidad.
PARQUES EOLICOS:
En términos sencillos, es la utilización de la luz solar para producir electricidad por medio de paneles
solares.
La aplicación de esta energía en zonas rurales donde no llegan las líneas comerciales es importante.
Además ahora es mas frecuente su uso en pequeños electrodomésticos como calculadoras, bombeo de
aguas en lugares aislados, señalización en autopistas, iluminación de jardines o zonas públicas.
ENERGÍA SOLAR TÉRMICA:
Es la que aprovecha la radiación infrarroja del sol para generar calor que se destina, principalmente, a la
producción de agua caliente, calefacción y calentamiento del agua en piscinas. Otras aplicaciones menos
usuales son la cocción de alimentos en cocinas solares, el secado de productos, la refrigeración o la
generación de electricidad mediante vapor de agua.
VENTAJAS
DESVENTAJAS
El nivel de radiación fluctúa de una zona a otra y de una estación del año a otra.
Para recolectar energía solar a gran escala se requieren grandes extensiones de terreno.
Requiere gran inversión inicial.
Los avances en la tecnología han permitido fabricar chips se hacen más pequeños (ahorita estamos en
los 45nm) y más calientes. Cuando abrimos nuestra PC veremos nuestro procesador el cual es muy
rápido y de igual forma algunos de los componentes, todos siendo enfriados comúnmente por un
disipador de calor y el ventilador.
La siempre creciente industria de la computación está en una búsqueda continua de nuevas formas para
enfriar microprocesadores. Desde ventiladores gigantes hasta nitrógeno líquido, la industria y los
entusiastas se esfuerzan continuamente para conseguir mejores y más silenciosos y confiables métodos
de enfriamiento.
Tecnicas de enfriamiento:
1. Refrigeración por Aire: La refrigeración pasiva es probablemente el método más antiguo y común
para enfriar no sólo componentes electrónicos sino cualquier cosa.
1.1 Refrigeración Pasiva por Aire: Las principales ventajas de la disipación pasiva son su inherente
simplicidad (pues se trata básicamente de un gran pedazo de metal), su durabilidad (pues carece de
piezas móviles) y su bajo costo.
1.2 Refrigeración Activa por Aire: La refrigeración activa por aire es, en palabras sencillas, tomar un
sistema pasivo y adicionar un elemento que acelere el flujo de aire.
2. Refrigeración líquida (más conocida como Watercooling): Un método más complejo y menos
común es la refrigeración por agua.
2.1 Refrigeración Líquida por Inmersión: Una variación extraña de este mecanismo de refrigeración es
la inmersión líquida, en la que un computador es totalmente sumergido en un líquido de conductividad
eléctrica muy baja, como el aceite mineral.
2.2 Refrigeración por Metal Líquido: Aunque su principio es completamente distinto al watercooling, de
alguna manera este sistema está emparentado. Se trata de un invento mostrado por nanoCoolers, que
hace algunos años desarrolló un sistema de enfriamiento basado en un metal líquido con una
conductividad térmica mayor que la del agua.
3. Refrigeración Termoeléctrica (TEC): Se descubrió que aplicando una diferencia eléctrica en 2
metales o semiconductores se intercambiaba el calor.
4. Cambio de Fase: Los sistemas de enfriamiento por cambio de fase se basan en la misma máquina
térmica que opera en todo refrigerador. Aunque los sistemas han cambiado mucho desde los primeros
refrigeradores.
5. Criogenia: Incluso más raro que la refrigeración por cambio de fase es aquella basada en la criogenia,
que utiliza nitrógeno líquido o hielo seco. Estos materiales son usados a temperaturas extremadamente
bajas
REFRIGERACION LIQUIDA
La Refrigeración líquida o watercooling es una técnica de enfriamiento utilizando agua en vez de
disipadores de calor y ventiladores (dentro del chasis), logrando así excelentes resultados en cuanto a
temperaturas.
El agua, y cualquier líquido refrigerante, tienen mayor conductibilidad térmica que el aire. A partir de este
principio, la idea es extraer el calor generado por el microprocesador (o los microprocesadores), la tarjeta
gráfica, el chipset de la placa base (elemento que interrelaciona los elementos de un ordenador), la
memoria Ram, discos duros, fuera del chasis del ordenador apoyándonos en un circuito cerrado de agua.
Todos los sistemas de refrigeración líquida deben contar con varios componentes básicos:
El bloque de agua: generalmente de cobre o aluminio, (circuito semejante a un radiador (de
calefacción) donde se produce el intercambio de calor entre el agua y el componente).
El circuito de agua: conjunto de tubos por los que fluye el líquido refrigerante.
La bomba: genera la circulación del líquido.
El radiador: componente que enfría el agua del circuito mediante tubos muy finos que pasan el calor
al aire.
Los ventiladores: Que lo enfriarán.
APLICACIONES DE WATERCOOLING.
Bloques para Chipset: Estos bloques están destinados a intercambiar el calor con los microchips
que entrelazan entre sí los elementos de la placa base.
Bloques para Microprocesador: Estos bloques están destinados a intercambiar el calor con el
microprocesador, o CPU lo que facilita subir su reloj y voltaje para, de esa manera, aumentar su
rendimiento. Actualmente existen bloques para casi cualquier microprocesador de AMD y de Intel.
Bloques para Disco Duro: Estos bloques están destinados a intercambiar el calor con los discos
duros, componentes que suelen producir bastante calor conforme van envejeciendo, lo que puede
causar fallos de lectura y/o escritura y, por tanto, pérdida de datos.
Bloques para Tarjeta Gráfica: Estos bloques están destinados a intercambiar el calor con el chip de
la tarjeta gráfica y, con ello, facilitar la subida de su reloj y voltaje para aumentar su rendimiento, y
poder usarla como si fuera un modelo superior y más caro. Aunque suelen ser los más usados,
después de los de microprocesador, no están disponibles para todos los modelos de chips ni de
tarjetas del mercado más habituales.
GREEN IT
INTRODUCCION
El agujero en la capa de ozono, por otro lado, es cada vez más grande y preocupante ya que provoca el
aumento de los casos de melanomas (cáncer) de piel, de cataratas oculares, y supresión del sistema
inmunitario en humanos y en otras especies. Para preservar la atmósfera es de vital importancia
disminuir a cero el uso de compuestos químicos como los clorofluorocarbonos (refrigerantes
industriales), y sobre esto, la industria tecnológica tiene mucho que decir.
Por otro lado la preocupación del sector TIC por el consumo energético y las consecuencias
medioambientales que su actividad genera no ha sido tan temprana como hubiera sido deseable. La
industria, sujeta a un entorno de creciente competencia, ha perseguido el desarrollo de productos y
servicios de alta calidad, fiables y con el menor coste inicial posible. Aspectos relacionados con la
eficiencia energética de los sistemas no han sido considerados prioritarios, pero el ininterrumpido avance
de las redes de trabajo o el aumento de la digitalización de contenidos y de la capacidad de
procesamiento, entre otras actividades, han provocado una demanda de infraestructuras y sistemas de
información cada vez más potentes y, en consecuencia, una demanda energética cada vez mayor.
Tres vertientes configuran la llamada Green IT: el reciclado de materiales, el ahorro de energía y la
virtualización, que no es más que convertir un servidor físico en uno virtual, para poder hacer grandes
agrupaciones en una sola máquina física. Estos son los planteamientos, las medidas, las grandes
soluciones, pero, ¿hay que estarles agradecidos?
Al fin y al cabo, las TIC son las responsables del 2% de las emisiones de CO2 a nivel mundial. Una tasa
que Gartner(consultora internacional) se ha molestado en desmenuzar: donde ese 2%, el 39%
corresponde a PC y monitores, el 23% a los servidores, el 15% a las telecomunicaciones fijas, el 9% a
las telecomunicaciones móviles, el 7% a las LAN y telecomunicaciones de oficina, y el 6% a las
impresoras.
Por Green IT entendemos todo lo que se refiere al uso de la energía y todas las medidas destinadas a la
eficiencia que se computan de manera directa en la cuenta de resultados (uso de la energía,
refrigeración y todo lo relacionado con la alimentación de la infraestructura tecnológica)
Además de perseguir la máxima eficiencia energética, Green IT implica otros aspectos como la reducción
de los componentes nocivos empleados en la fabricación de productos tecnológicos y la
biodegradabilidad o reciclabilidad de los mismos, recogiendo o reutilizando las maquinas obsoletas y
fomentando políticas de reciclaje en las empresas
Al respecto de esto, destaca Green Grid, un consorcio mundial cuyo cometido es incentivar a las
empresas y organismos para que consideren tecnologías, procesos y medidas eficientes
energéticamente.
El ahorro de costes es una de las razones clave para abrazar el movimiento Green IT. No en vano, el
coste energético de un data center supone un 13% del total de los gastos. Combinando el progresivo
crecimiento del precio por kilovatio que casi nadie discute, con la proliferación de las TI que tampoco
nadie discute, algunos expertos prevén que en los próximos años el coste de la factura eléctrica llegará a
suponer la mitad del coste total de explotación. IDC prevé que el gasto en suministro de energía y
refrigeración de los centros de datos supere este año al presupuesto destinado al hardware. Además,
hoy en día existen áreas (la City de Londres, por ejemplo) donde no es posible ubicar determinados data
centers porque las compañías eléctricas no pueden garantizar el caudal requerido.
De acuerdo con el estudio realizado por una consultora (BEA Systems), el señala, que el 57%
cumplimiento de la normativa gubernamental como motivo principal para la puesta en marcha de políticas
“green”, seguido de la responsabilidad social corporativa (45%), el incremento del coste energético (38%)
y los problemas de espacio (18%). La principal prioridad para las empresas españolas y portuguesas es
el reciclaje y la utilización más responsable de los recursos tecnológicos. El segundo objetivo en
importancia es la reducción del consumo energético de las TI (53%), seguido de la reducción de los
gastos de refrigeración y luz de los centros de datos (50%).
Metricas
El compromiso creciente de las empresas con el movimiento green IT está haciendo crecer la necesidad
de contar con métodos para medir de una forma objetiva el consumo de potencia en los centros de datos,
pues sólo de esta forma se conseguirá una máxima eficacia contrastable. Y este es el objetivo de dos
nuevos estándares que cuentan con el apoyo del consorcio industrial The Green Grid, creado en 2007
precisamente con la misión de desarrollar métricas de la productividad y eficiencia energética de los data
centers. Se trata de Power Usage Effectiveness (PUE) y Data Center Infrastructure Efficiency
(DDCiE), que, según The Green Grid, “además de permitir estimar el nivel de eficiencia energética de los
data centers, permitirán comparar los resultados con los de otros centros de datos y determinar si resulta
conveniente realizar alguna mejora”. Estas métricas se basan esencialmente en la correlación entre la
cantidad de electricidad que consume el centro de datos, tanto con fines de alimentación como de
refrigeración, y la cantidad de potencia utilizada por el equipamiento TI propiamente dicho en él instalado.
Esta es la forma en que The Green Grid define sus dos “fórmulas” para calcular el consumo energético
real de la infraestructura de los centros de datos y determinar cuál sería el objetivo a perseguir en cada
caso:
1) PUE = Potencia total consumida por las instalaciones / la potencia consumida por el equipamiento
TI. Se trata de una división y el resultado debe ser menor que 2. Pero cuanto más se aproxime a 1,
mejor, dado que tal valor sería equivalente a una eficiencia del 100%.
Como se ha dicho, hace referencia a la relación entre la potencia total consumida por el centro de datos y
el consumo del equipamiento TI. Por ejemplo, un PUE de 2 significaría que la mitad del consumo
energético del centro de datos se corresponde con el equipamiento TI y el otro 50% está destinado a la
alimentación de los recursos a nivel de instalaciones e infraestructura refrigeración.
2) DCiE = (Potencia de equipamiento TI x 100) / Total de potencia de las instalaciones. El resultado
de esta fórmula es un porcentaje. Cuando mayor sea el número obtenido, mejor.
También conocido como DCE para Data Center Efficiency, muestra la potencia utilizada por el
equipamiento TI como porcentaje del total de potencia por él consumida. Un DCiE del 50% significaría
que la mitad de la potencia total se destina a alimentar tal equipamiento. El otro 50% correspondería a
gastos generales de alimentación y refrigeración de las instalaciones del data center, no directamente al
funcionamiento de los recursos TI.
The Green Greed define la potencia del equipamiento TI como el consumo asociado a los sistemas
utilizados para gestionar, procesar, almacenar o encaminar datos dentro del data center. Es importante
comprender cuáles son los componentes a clasificar bajo esta categoría, que, en términos generales,
incluirá la carga asociada con todo el equipamiento TI, como ordenadores, almacenamiento y networking,
además de las plataformas suplementarias (conmutadores KVM, monitores, estaciones de
trabajo/portátiles utilizados para monitorizar o, en general, controlar el centro de datos, etc.).
Por lo que respecta al consumo total de las instalaciones –del que se excluye el asociado al
equipamiento TI- incluirá la alimentación de todos los recursos que soportan la carga de los sistemas
anteriores. Bajo esta categoría entrarán los componentes de entrega de energía, como UPS,
interruptores, generadores, PDU, baterías, componentes de sistemas de refrigeración (chillers, unidades
de aire acondicionado CRAC- Computer Room Air Conditioning...), unidades de manejo de expansión
directa de aire (DX), bombas de aire, torres de ventilación, nodos de almacenamiento, de red y
computacionales, etc.
Los Centros de datos como mayores consumidores de energía como ya se menciono, muchas veces no
son regulados sobre el consumo que tienen, algunos estudios preliminares indican, según The Green
Grid, que muchos centros de datos podrían tener un PUE de 3.0 o superior, mientras que con un diseño
apropiado sería perfectamente alcanzable en ellos un valor de 1,6. Esta idea está apoyada por diversas
medias realizadas por Lawrence Berkley National Labs.
A continuación se muestran las diez técnicas que Network World -medio del grupo IDG Communications-
ha aplicado en Estados Unidos para mejorar la infraestructura de su propio data center, un proyecto
llevado a cabo en estrecha colaboración con la compañía NetApp y con el proveedor de servicios local
del grupo. Seguramente muchos se sentirán gratamente sorprendidos al comprobar que en muchos
casos se trata de medidas sencillas, asequibles y fáciles de implementar.
1- Medir para controlar
2- Virtualizar y consolidar sistemas TI
3- Gestionar los datos: eliminar la información duplicada o inútil
4- Eliminar la “sobre-refrigeración” de los sistemas
5- No olvidar los principios físicos durante el diseño: el aire caliente sube, el frío baja
6- Mejorar continuamente la contención de calor
7- Aprovechar al máximo la refrigeración natural
8- Minimizar las pérdidas de transformación eléctrica
9- Aprovechar el calor en lugar de desperdiciarlo
10- Monitorización y ajuste constantes
Casos Exitosos
Greenest Host
Actualemte existe un CPD que hace realidad el uso de la energía solar. Se encuentra en California, no
muy lejos de la comunidad de Palm Springs. Pertenece a la compañía Greenest Host, especializada en
los servicios de alojamiento Web, desarrollo y diseño de páginas Web e Internet, de forma externalizada
o medio outsourcing.
Greenest Host es cien por cien renovable, afirma Corrales. “Con solamente 120 paneles solares,
generamos 50 megavatio-horas de electricidad, anualmente”. Esto se traduce en unos 144 kilovatio-
horas al día. Corrales asegura que ve un crecimiento imparable de su negocio. “La dirección que
estamos tomando nos permitirá escalar nuestra capacidad de procesos, generación de electricidad y
redundancia en función de las necesidades de los clientes”.
Google: un caso de éxito en Green IT
Una red social es una estructura social que se puede representar en forma de uno o varios grafos en el
cual los nodos representan individuos (a veces denominados actores) y las aristas relaciones entre ellos.
Las relaciones pueden ser de distinto tipo, como intercambios financieros, amistad, relaciones sexuales,
o rutas aéreas. También es el medio de interacción de distintas personas como por ejemplo juegos en
linea, chats, foros, spaces, etc. El aumento de las visitas de los internautas a las redes sociales ha
dividido a la mitad las visitas a los sitios porno, según los datos recogidos.
En términos sencillos se definen en un grupo de personas, miembros de una familia, vecinos, amigos,
compañeros de estudio o trabajo y otras personas capaces de aportar una ayuda y un apoyo tan real
como duradero a un individuo o a una familia.
Es una forma de interacción social, definida como un intercambio dinámico entre personas, grupos e
instituciones en contextos de complejidad. Un sistema abierto y en construcción permanente que
involucra a conjuntos que se identifican en las mismas necesidades y problemáticas y que se organizan
para potenciar sus recursos.
Alrededor de 2001 y 2002 surgen los primeros sitios que fomentan redes de amigos. Hacia 2003 se
hacen populares con la aparición de sitios tales como Friendster, Tribe y Myspace.
Rápidamente algunas empresas ingresan a las redes sociales. Google lanza en enero de 2004 Orkut
apoyando un experimento que uno de sus empleados realizaba en su tiempo libre. En 2005 ingresan
Yahoo 360º y otros.
a) diádicas (sólo indican ausencia o existencia de la relación) o valoradas (en la que la cantidad de la
relación pueda medirse en términos de orden o de peso como, por ejemplo, número de encuentros
sexuales entre dos personas), o bien
b) transitivas (la relación en realidad es una unión entre actores que siempre es recíproca. Ejemplo:
leemos el mismo blog habitualmente) o dirigidas (que el individuo A tenga relación con el individuo B no
implica que B tenga esa misma relación con A, como, por ejemplo, prestar dinero).
Primarias
Secundarias
Terciarias
Primarias: Están compuestas por la suma de todas las relaciones que un individuo percibe como
significativas o define como diferenciadas de la masa anónima de la sociedad.
Por lo tanto las redes primarias están conformadas por:
Familia
Familia ampliada
Amigos – Colegas – Vecindario
Las redes sociales secundarias corresponden a las relaciones entabladas en el macro sistema.
En estas redes se distinguen dos grupos:
1. Uno más próximo a las redes primarias pero cuyas relaciones se establecen con características un
tanto diferentes con respecto a la relación.
2. En segundo lugar están las redes institucionales, que se encuentran en el sistema externo. Estas
redes están conformadas por personas que pertenecen a las instituciones y que brindan servicios
(educativos, de salud, bienestar social, etc.)
Las redes institucionales se definen como organizaciones gestadas y constituidas para cumplir con
objetivos específicos que satisfagan necesidades particulares del sistema usuario; necesidades que son
puntuales y deben ser canalizadas dentro de organismos creados para tales fines.
Que debe tener una Red social en Internet
Básicamente son 3 cosas lo que las redes sociales en internet deben tener, aunque hay algunas que
tienen muchas más funciones:
El software germinal de las redes sociales parte de la teoría de los Seis grados de separación, según la
cual toda la gente del planeta está conectada a través de no más de seis personas. De hecho, existe una
patente en EEUU conocida como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay
otras muchas patentes que protegen la tecnología para automatizar la creación de redes y las
aplicaciones relacionadas con éstas.
Estas redes sociales se basan en la teoría de los seis grados, Seis grados de separación es la teoría de
que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una
cadena de conocidos que no tiene más de cuatro intermediarios. La teoría fue inicialmente propuesta en
1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está
basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la
cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se
convierta en la población humana entera.
Recogida también en el libro "Six Degrees: The Science of a Connected Age” del sociólogo Duncan
Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan solo seis “saltos”.
Según esta Teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o
escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras
100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un
amigo que pase el mensaje a sus amigos.
Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede
conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir
para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si
conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que
hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son
amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será
sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes
sociales.
Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un
tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000
en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a
cualquier lugar individuo del planeta.
(d) como mitigador de los efectos del compromiso multi-organizacional con la familia.
1.Actualidad
2.Interconexión
3.Comunicación
4.Entretenimiento
5.Protagonismo
6.Control
La incorporación de imágenes, videos, sonidos y la combinación de estas redes con servicios como
youtube.com, hacen que los perfiles o fichas personales de cada uno de los usuarios sean verdaderos
resúmenes de información, diarios íntimos y álbumes de fotos personales, soñadas sóo por madres y
abuelas de todo el mundo.
Orta considera que estas páginas almacenan datos que sirven para obtener desde el perfil psicológico,
hasta datos personales como fechas de nacimiento, que pueden ser utilizados por ciberdelicuentes en la
suplantación de identidades en Internet para acceder a cuentas bancarias en línea y para el uso de
servicios web, e incluso estos datos proporcionan información privilegiada a hampones y organizaciones
criminales del mundo real.
Orta remarca que los usuarios deben saber que al inscribirse en sitios como Facebook o MySpace, se
coloca información real a efectos de poder ser ubicados fácilmente por amigos y allegados. A manera de
ejemplo, indica que la fecha de nacimiento es utilizada por el 10% de los usuarios de Internet con su
contraseña de acceso.
Redes más famosas: Facebook, MySpace, Bebo, Hi5, Cyword, Orkut, Friensher y Skyblog.
WEB MASHUP
Durante los primeros días de Mashups, por lo general los programadores tenían que buscar pantalla de
sitios Web sólo para obtener datos útiles. Hoy en día, los actores principales, como Google, yahoo, y
Microsoft han permitido a los usuarios y creadores mashup utilizar sus mapas para sus aplicaciones con
la esperanza de obtener más exposición para sus productos y para ganar la penetración en el mercado
más profundo y más amplio mercado de la distribución. Esto ha abierto las puertas para el aumento de la
tasa de mashup la creación del sitio.
¿Qué es un Mashup?
Un mashup también conocido como Web Híbrida, es un sitio Web que accede a datos o servicios de
terceros y los combina para crear una nueva aplicación, siendo uno de los pilares de la famosa Web 2.0,
la Web social y colaborativa donde los usuarios tienen algo que aportar.
En otras palabras consiste en una aplicación Web que utiliza recursos de más de una fuente para crear
un servicio completo, consumiendo servicios directamente siempre a través de protocolo http y APIs.
» 3450 mashups
» Tres nuevos mashups cada día
» Últimos 6 meses 3000 - 3450
» 356 APIs disponibles
La potencia de los mashups radica en dos pilares básicos:
La facilidad de utilizar los recursos de las fuentes originales gracias a un API sencillo y bien
documentado.
La imaginación de los usuarios llevada hasta límites insospechados.
Composición de los Mashup:
El proveedor de contenidos: fuente de los datos. Los datos están disponibles vía una API y diferentes
protocolos Web como RSS, REST y Web Service.
El sitio mashup: es la nueva aplicación Web que provee un nuevo servicio utilizando diferente
información y de la que no es dueña.
El Web browser cliente: es la interfase de usuario del mashup. En una aplicación Web, el contenido
puede ser mezclado por los Web browser clientes usando lenguaje Web del lado del cliente. Por
ejemplo javascript.
Arquitectura de la Tecnología Mashup
El sitio Web del mashup accede a las páginas Web del proveedor y procesa el contenido HTML
extrayendo información.
Características:
El sitio Web del mashup accede a Servicios Web del proveedor utilizando una API.
Características:
Los mashups vienen actualmente en cuatro formas: mashups de consumidores, mashups de datos,
mashups empresariales y mashup de negocios.
El tipo más conocido es el mashup de consumidores que está muy bien ejemplificado por muchas
aplicaciones que utilizan Google Maps. Los mashups de este tipo combinan datos de varias fuentes
escondiendo esto detrás de una interfase gráfica simple.
Mashup de datos mezcla datos de tipo similar proveniente de diferentes fuentes por ejemplo: Yahoo
Pipes que combinando los datos de múltiples feeds RSS en un solo feed.
Mashup empresarial integra usualmente datos de fuentes externas e internas. Por ejemplo podría
crear un reporte del market share de un negocio combinando la lista externa de todas las casas
vendidas la semana anterior con datos internos de las casas vendidas por una sola agencia.
Mashup de negocio es una combinación de todo lo anterior, enfocando en agregación de datos y
presentación y agregando adicionalmente una funcionalidad colaborativa, haciendo que el resultado
final sea una aplicación de negocio apropiada.
Categorías:
Mapas
Requiere una cartografía fuente que podría proporcionar una presentación visual de la zona o lugar que
está involucrado en el proceso. La fuente para el tipo de datos o información de que el mashup contendrá
también es necesaria. Estos datos se representan gráficamente en el mapa en una gráfica de forma
visual o por la aplicación.
Características:
Muestran información sobre un mapa o imagen satélite
Categoría dominante (13%)
80% información es georeferenciable
Condiciones de uso
Cobertura mundial
Vídeo y fotos
Se basan sobre la foto y los proveedores de contenido de vídeo junto con otro origen de datos que puede
proporcionar toda la información que podría estar relacionado con tales contenidos multimedia. Estos
podrían incluir los lugares o ubicaciones de las fotos y los vídeos tomada. Estas ubicaciones o
direcciones podrían ser utilizadas para conspirar geográfica de referencia visual.
Características:
APIs para acceder a grandes bases de datos de videos y fotos
Contenidos creados por los usuarios (móvil)
Contenido multimedia clásico - mucha aceptación
Búsqueda y compras
Trabaja sobre la idea de comparar los precios de los productos y utilizando un método de búsqueda. Los
resultados de la búsqueda de diversas fuentes en línea podrían ser compilados para la comodidad del
navegador.
Características:
Búsqueda de mejores ofertas
Técnicas de Servicios Web (B2B) y mucho Screen Scraping
Conducen a comercios online a ofrecer APIs
Noticias
Trabaja sobre el concepto de la colocación de una colección específica de la noticia de que un
determinado usuario o cliente quiere o prefiere por lo general y, a continuación, se presenta en un
método colectivo.
Características:
Fuentes de noticias RSS/ATOM (sin necesidad de API)
Noticias agrupadas según preferencias del usuario
Para los sitios de noticias disminuye visitas
Ocio y diversión
Trabajo en entornos Web 2.0
Ahorro de tiempo y dinero
Democratización de la tecnología
Acceso a nuevos y mejores servicios
Los usuarios son los que salen mas beneficiados
Desventajas:
Anuncios no deseados
Dependencia de los proveedores
Propiedad Intelectual
Contenidos de poca calidad
Limitadores tecnológicos
Mashups interesantes, prácticos y curiosos
El Ladrillométro: permite a los usuarios comparar el precio que pagan por su casa (tanto propia
como alquilada) en la zona en la que viven.
TuneGlue: muestra mapas de relación entre artistas musicales utilizando la API de la radio a la carta
Last.fm y el servicio de Amazon que ofrece recomendaciones basadas en el criterio de compra de
usuarios anteriores.
Facebook: de tipo red social, es posible que cada usuario incluya aplicaciones de terceros en su
propio perfil
MICROBLOGGING
0x000Definición
Acorde a la wikipedia el microblogging (tambien llamado nanoblogging) es un servicio que nos permite enviar
mensajes de texto simples y relativamente cortos, por diferentes medios como por ejemplo SMS, mensajeria
instantanea, sitios web o redes ad hoc.
Extendiendo el concepto podemos decir que es un medio de comunicacion similar y derivado de los blogs o weblogs
que destaca por su excesiva sencillez restringiendo al usuario a enviar mensajes de corta duracion (es casi una
convencion la restriccion a 140 caracteres) de manera que puedan ser transmitidos por diferentes medios como los
telefonos celulares via mensajes SMS, paginas web o aplicaciones de escritorio dispuestas para tal fin de manera que
se les faciliten los medios de transmision y recepcion disponibles para los usuarios siendo mas sencillo el proceso de
transmitir ideas tan simples que puedan ser explicadas con texto plano en no mas de 140 caracteres y los interesados
en esta noticia puedan estar al tanto de ello a traves de internet o SMS en un intervalo de no mas de un minuto de
retraso, sin restricciones tecnologicas o geograficas.
Algunos suelen confundir al microblogging con la mensajeria instantanea pero cada uno tiene diferentes
aplicaciones y usos. Por ejemplo, en la mensajeria instantanea la comunicacion es entre dos personas a la vez. Un
mismo mensaje solo puede ser transmitido a una sola persona, a menos que se organice una sala de chat. En cambio,
en el microblogging cada usuario actualiza su estado enviando el mensaje y este es reproducido y recibido de forma
simultanea por cada uno de los usuarios "seguidores" del que transmitio el mensaje. Algunos de los servicios de
mcroblogging permiten ademas enviar mensajes directos a una persona, de forma publica o tambien de forma
privada.
0x010 Orígenes
A continuación se muestra una linea de tiempo con los servicios, accesorios y clientes del microblogging, desde su
nacimiento hasta abril de 2008:
[Clic aqui para ver la imagen]
[o sino, véanla en http://flickr.com/photos/robertuxwired/3016866194/]
0x011Servicios
Entre los servicios que ofrecen caracteristicas similares al microblogging se encuentran los mencionados en la linea
de tiempo anterior y ademas otros que listaremos a continuacion pero entre ellos, quien mas popularidad ha tenido
desde sus inicios ha sido Twitter.
• Twitter (http://twitter.com)
• Plurk (http://www.plurk.com/)
• Pownce (http://pownce.com/)
• Jaiku (http://www.jaiku.com/)
• Identi.ca (http://identi.ca/)
Ultimamente otros servicios como las redes sociales han incorporado la capacidad del microblogging como es el
caso de facebook (el cual fue uno de los pioneros al incorporar este servicio), myspace, pringo y hi5.
0x100Aplicaciones
La aplicación mas común y mas sencilla del microblogging ha sido desde sus inicios responder a una simple
pregunta:
Lo cual significa que por lo general, los servicios de microblogging pretenden que el usuario actualice su estado con
lo que hace a cada momento, por ello y por los diferentes medios por los cuales es posible acceder al servicio es que
se vuelve tan adictiva esta actividad.
Despues del boom de twitter, surgieron muchos otros accesorios para este que permitian aprovechar su popularidad
y simplicidad para otros servicios como es el caso los que listaremos a continuación. Estos son servicios que se
integran con el mas popular de los servicios de microblogging: Twitter.
• Twitpic: Servicio para alojamiento de imágenes que se asocia con tu cuenta de twitter de manera que te permite
publicar la imagen al momento de subirla al servidor agregandole un comentario en twitter junto con un vínculo a
dicha imagen.
• Blip.fm: que permite escuchar música en línea, mientras que se escribe un twitt con un comentario sobre la
canción y un vínculo para que los followers o contactos de twitter puedan conocerlo. Algo asi como responder a la
pregunta "Que musica estas escuchando?"
• Twitterfeed: El cual te permite usar una cuenta de twitter como un consumidor de RSS/Atom feeds para poder
mostrar de manera automatica en tus actualizaciones de twitter, por ejemplo, los ultimos posts que has escrito en tu
blog.
• Twittertise y twittadd: Los cuales permiten aprovechar la popularidad de twitter para promover anuncios
publicitarios de empresas y ganar algo de dinero con ello.