UN SERVIDOR HOGAREÑO

mayo 20, 2010

Se trata del Media Share de Verbatim, un dispositivo de 1TB que permite la carga de archivos desde cualquier computadora, BlackBerry o iPhone a distancia. La empresa anunció además la llegada de su portfolio USB 3.0 y la incursión en el mercado de iluminación LED.

servidorhogar

A medida que el mercado argentino de computadoras crece, se van presentando problemas para los usuarios domésticos: falta de espacio en el disco, dispersión de fotos y videos en distintas máquinas y, por qué no, el olvido de un documento de trabajo importante en la PC del hogar.

Verbatim presentó en sociedad Media Share, el primer servidor doméstico que permite centralizar de forma sencilla la información contenida en las distintas computadoras del hogar.

“Desde casa, el trabajo o un lugar de veraneo, el usuario puede acceder a su información, videos, fotos. Puede incluso tomar una fotografía y enviarla desde su celular al servidor”, explicó Sergio Costa, regional Sales Manager de Verbatim en la Argenitna.

Media Share tiene una capacidad de 1 Terabyte, equivalentes a más de 1.000GB, y es compatible con cualquier PC, notebook, BlackBerry o iPhone.

Desde Media Share se puede transmitir música o mostrar fotos en una pantalla de TV mediante una Xbox 360 o PlayStation 3 .

A través de los puertos que posee, el usuario puede transferir datos a otros dispositivos externos, como un pendrive o un disco externo. Media Share contiene un software como servidor tipo espejo ( mirroring) o duplicado exacto para backup y un apoyo para usuarios de Time Machine en Mac.

El dispositivo llegará a la Argentina en los próximos meses, a un precio que rondaría los u$s250.

“El usuario está tomando conciencia acerca de la importancia de la información que almacena en su máquina y es por ello que el mercado de almacenamiento crece sin pausa”, sentenció Costa.

USB 3.0 y LED

Durante la presentación de Verbatim se informó además que durante el próximo trimestre arribarán los primeros discos externos con interfaz USB 3.0, compatible con la actual norma 2.0.

Los pendrive con la nueva norma llegarán hacia fines de año.

El USB 3.0 es hasta 10 veces más rápido que el 2.0 actual, ofreciendo 5Gbps de transferencia. Así, por ejemplo, copiar 50GB lleva aproximadamente 2 minutos y 20 segundos.

Verbatim es parte de Mitsubishi Chemical y de la mano de esa empresa es que planea desembarcar en el segmento de iluminación de tipo LED durante el primer trimestre de 2011.

“Estaremos compitiendo con players a los que no estamos acostumbrados pero lo importante es que como empresa no paramos”, mencionó Costa.

HOME

BLOGGER | CLARIN | LIVE | FACEBOOK | TWITTER | SITIO WEB

Alejandro Martinez | apm@grupodeprofesores.com.ar

Anuncios

Velocidad de Internet – Aumentar la velocidad de descarga

junio 7, 2011

velocidad-internet

Un eficaz gestor de descargas para incrementar la velocidad de internet puede ser muy útil, con el cual puede aumentar la velocidad de descarga hasta un 500%. En este artículo le decimos cual puede ser esa solución. La aceleración se obtiene gracias a la división del archivo, esto provoca que se descarguen los archivos en varias partes, transfiriéndolas al mismo tiempo.

Lee el resto de esta entrada »


Pasos para crear 1 Blog – Las Mejores Opciones

mayo 30, 2011

pasos-para-crear-1-blog-las-mejores-opciones Aunque la actividad y el uso del blog se vio afectada por el uso de las redes sociales, hay más razones por la que uno desea tener y administrar su propio blog. En este primer artículo le decimos como Pasos para crear un Blog, las Mejores Opciones para donde tenerlo alojado y poder compartir con el mundo lo que quieras.

Lee el resto de esta entrada »


La Computadora más rápida de la Historia

noviembre 2, 2010

COMPUESTA-SERVIDORES-SECRETO-INTERCONEXION-COMPONENTES_CLAIMA20101029_0085_4

TIANHE-1A. ESTA COMPUESTA POR SERVIDORES Y SU SECRETO ESTA EN LA INTERCONEXION DE SUS COMPONENTES. Se usará en astrofísica.

Lee el resto de esta entrada »


COMPARTIR FOTOS EN INTERNET

octubre 5, 2010

compartir-lindo-perrito

Las cámaras modernas permiten obtener cientos de fotografías. En esta nota, las formas más fáciles y divertidas de bajarlas a la PC, darlas a conocer en la Web y hasta en un sitio web personal.

Tras unas felices vacaciones, lo que queda son los recuerdos y, tras los recuerdos, decenas o quizás centenas de fotografías digitales. Esas fotos estarán esperando a que usted las procese y las comparta con sus amigos y su familia, tarea que, sin las herramientas adecuadas, puede resultar tediosa e infinita.

Lee el resto de esta entrada »


LO NUEVO DE INTEL PARA 2011

septiembre 13, 2010

Conocidos bajo el nombre código Sandy Bridge, se trata de la segunda generación de procesadores Intel Core para notebooks y computadoras de escritorio. Sus principales características.

intel_logo2

De acuerdo a lo anunciado por Intel, los nuevos chips se espera que estén en producción a fines de este año y disponibles en laptops y computadoras de escritorio a partir de principios de 2011 .

La novedad fue dada a conocer en el Intel Developer Forum en San Francisco, donde se dijo que la segunda generación de los Intel Core extenderá aún más el desempeño de los chips de la empresa y la duración de la batería, añadiendo una serie de características relacionadas con las capacidades visuales integradas directamente en los procesadores .

Con nombre código "Sandy Bridge", los chips se basarán en la primera nueva microarquitectura "visiblemente inteligente" de Intel, con tecnología de proceso de 32 nanómetros (un nm es la milmillonésima parte de un metro) y transistores High-K Metal Gate de segunda generación.

"La forma como la gente y las empresas están utilizando las computadoras está evolucionando a un ritmo explosivo, alimentando la demanda de una experiencia aún más poderosa y visualmente atractiva", dijo Dadi Perlmutter, vicepresidente Ejecutivo y Gerente General del Intel Architecture Group.

"Nuestra próxima familia de procesadores Intel Core representa el mayor avance de desempeño en relación a cualquier generación anterior. Además de ofrecer estas funciones dentro de laptops con chip Intel, planeamos escalar estos avances a través de nuestro portafolio de productos para servidores, data centers y computación embebida", agregó.

Arquitectura “en anillo”

La familia de procesadores incluirá una nueva arquitectura "en anillo" que permitirá que el motor gráfico integrado del procesador comparta recursos tales como la memoria de caché o una reserva de memoria con el núcleo del procesador para aumentar el desempeño de procesamiento y gráficos de un dispositivo al tiempo que mantiene la eficiencia energética .

Los nuevos Intel Core también incluyen una versión mejorada de Turbo Boost Technology , que permite cambiar o reasignar automáticamente los núcleos de los procesadores y los recursos gráficos para acelerar el desempeño, personalizando una carga de trabajo para darles a los usuarios un aumento de performance inmediato cuando sea necesario.

Intel aseguró además que los nuevos procesadores de gráficos poseen características visuales mejoradas, centradas en las áreas para las que la mayoría de los usuarios utilizan sus computadoras hoy: video en alta definición, tres dimensiones, juegos,realización de múltiples tareas al mismo tiempo y redes sociales o uso de multimedia en línea.

SITIO WEB | WORDPRESS | BLOGGER | CLARIN | LIVE |

Carolina Maglio | cmaglio@grupodeprofesores.com.ar

seguinos por TWITTER y FACEBOOK 


INTERNET PODRIA SER MAS CARA Y DE MENOR CALIDAD

agosto 30, 2010

Si se impusiera el "apagón", en gran parte del país habría sólo una opción tecnológica de similares características: el ADSL, que llega por la línea telefónica. La falta de competencia iría a contramano de las tendencias mundiales, donde se busca mayor innovación y reducir los costos.

fibertel2

Prender la computadora, conectarse a Internet y mirar un largo video en YouTube. Abrir Facebook e intercambiar las últimas fotos, ver los videos que nos recomiendan, “encender” Skype y hablar “por teléfono” con amigos por todo el mundo.

Parece de lo más natural por estos días. Pero nada de esto habría sido posible si no se hubiera masificado la banda ancha en todo el mundo. Un recurso quepodría resultar más caro y de menor calidad aquí, de prosperar la decisión del Gobierno de “apagar” Fibertel, una de las redes más extendidas en el país.

La banda ancha desembarcó hacia fines de los noventa en todo el mundo. Son accesos de alta velocidad con conexión permanente a Internet. De a poco, fueron reemplazando a la tradicional tecnología telefónica conocida como dial up, que era la única disponible hasta ese momento.

Las conexiones dial up –que aún venden las compañías telefónicas– tienen dos grandes inconvenientes: son muy lentas (y uno se queda afuera de las más importantes aplicaciones de Internet de hoy en día) y, por otra parte, consumen pulsos y ocupan la línea telefónica. Así, si uno está navegando no puede recibir ni hacer llamados telefónicos, y viceversa.

La revolución digital que provocó la banda ancha llegó de la mano del cable. Sí, el mismo cable que lleva la televisión a nuestras casas. Fue la primera respuesta que encontró Internet para acercar una conexión rapidísima y confiable al público masivo. A esta tecnología se la conoce genéricamente como “cablemódem”.

Las grandes telefónicas buscaron rápidamente la forma de brindar un servicio similar. Tras distintos experimentos, surgió el ADSL, que es la banda ancha que hoy viaja por el tendido telefónico. Para que funcione adecuadamente, un técnico de la compañía debe instalar un filtro, que separa la información de voz (telefónica) de los datos (Internet).

En “condiciones perfectas” (conectando una computadora directo con el servidor) el cable módem es bastante más veloz que el ADSL. Llega a los 100 megabits por segundo, que es una enormidad. Pero Internet es una red en la que participan millones de PC y miles de otras redes y servidores, los datos pasan por cientos de “cuellos de botella” que son independientes a esta conexión directa con el servidor. Por eso las velocidades teóricas nunca se cumplen.

Además, los proveedores le ponen límites a la velocidad porque la red es un recurso compartido y buscan evitar que uno le quite performance al otro. En rigor, cuando ofrecen una conexión de 3Mbps, por ejemplo, lo que hacen es limitar que los datos bajen a mayor velocidad que eso. Pero la red da para más. Esto sucede tanto para el cable módem como el ADSL.

Como sea, hoy en día las únicas dos tecnologías capaces de llevar a los hogares una buena conexión a gran escala son el cable módem y el ADSL. Una llega por el cable de televisión, la otra por el telefónico. Son dos sistemas de alta penetración geográfica en el mundo y, particularmente, en nuestro país donde el cable tiene una larga tradición. Esto es así porque el usuario no puede conectarse a un cable que no pase por su domicilio y las conexiones inalámbricas aún no alcanzan buenos niveles de calidad.

Fibertel funciona sobre la principal red de cable que cubre la Argentina, la de Cablevisión. Por eso, de cancelarse este servicio, como pretende el Gobierno, la mayoría de los argentinos hoy en día no tendrán otra opción que el ADSL telefónico, llame como se llame el proveedor que finalmente le ofrezca el servicio.

Iríamos a contramano de las tendencias en los países centrales, donde se busca llegar con la mayor oferta y calidad de banda ancha a todos los hogares . En los Estados Unidos, donde Barack Obama impulsa su ambicioso “Plan Nacional de Banda Ancha” el 80% de la población ya tiene acceso a, al menos, dos conexiones de 4Mbps como mínimo, una de ellas provistas por cable módem. Y se espera llegar con cable al 100% de los hogares en 2013, según un informe de la Comisión Federal de Comunicaciones de los Estados Unidos.

Los especialistas dicen que la falta de competencia podría incidir en el precio y también en la calidad de servicio, porque si el ADSL falla, los usuarios no tendrán opciones confiables (desde el punto de vista tecnológico) para cambiar.

HOME


IBM AHORA HACE CINE

julio 28, 2010

El gigante azul contribuyó con la productora Illumination Entertainment para satisfacer los requisitos de producción que planteó la creación de su nuevo largometraje 3D animado por computación, Mi villano favorito.

ibm

En la creación de películas en 3D se mueve tal cantidad de datos e imágenes que requiere realizar una gestión eficiente para obtener el mejor resultado sin que se disparen los costos.

La realización de Mi villano favorito (Despicable Me) implicó cientos de miles de imágenes individuales creadas a mano y renderizadas a través de la animación digital para construir efectivamente cada uno de los cuadros de la película, todo lo cual requiere una alta intensidad de potencia de cómputo.

En Mi Villano favorito se llegaron a generar 142 terabytes de datos, un volumen equivalente al tráfico originado por los 118 millones de usuarios activos de MySpace, se indicó en un comunicado.

Mi villano favorito representa una revolución del modelo de la cinematografía digital geográficamente distribuida y colaborativa, que nos enorgullece estar construyendo desde cero. Al reunir en forma transparente el talento creativo de los Estados Unidos, Francia y otros lugares del mundo a través de la tecnología, completamos un proyecto de producción masiva que a menudo se deja para los estudios de Hollywood más grandes concentrados en una sola ubicación”, explicó Chris Meledandri, productor de Mi villano favorito y fundador de Illumination Entertainment.

Equipos

Illumination Entertainment colaboró con Mac Guff Ligne, un estudio de producción digital de París, para completar los 12 meses de renderizado intensivo de gráficos y animación 3D, que suma 500.000 cuadros por semana.

Para completar el proyecto, el equipo debió diseñar y construir rápidamente una granja de servidores capaz de satisfacer las exigentes cargas de trabajo a lo largo de su equipo de 330 artistas, productores y personal de soporte.

Por eso, además de una mejor gestión del volumen de datos, el equipo de producción buscó en IBM una solución eficiente que evitara los grandes costos de mantenimiento y refrigeración asociados a un centro de datos funcionando 7×24.

Illumination aprovechó los servicios de IBM y su Asociado de Negocio Serviware de París para construir una granja de servidores basada en el sistema iDataPlex de IBM.

Con el diseño y la configuración flexible de este sistema, la compañía pudo satisfacer los intensos requisitos de cómputo para la película y ahorrar espacio duplicando la cantidad de sistemas que pueden ejecutarse en un solo rack IBM.

Para alojar el centro de cómputo se utilizó parte del garaje del centro de producción , ocupando aproximadamente la mitad del espacio asignado originalmente.

La solución iDataPlex incluyó refrigeración por agua, que permite que el sistema se ejecute sin necesitar aire acondicionado, ahorrando hasta 40% de la potencia usada en configuraciones típicas de servidor .

En total, la instalación incluyó 6,500 núcleos (cores) de procesador.

HOME


VIRUS QUE ATACA A SIEMENS

julio 20, 2010

Piratas informáticos pusieron en acción a un malware que ataca el popular sistema de control industrial de la empresa alemana. Según varios analistas, este software malicioso podría ser utilizado para espionaje y sabotaje

La compañía alemana ha explicado que el malware es un troyano, llamado Stuxnet, que se expande a través de memorias USB infectadas al explotar una vulnerabilidad de Windows que todavía no ha sido corregida por Microsoft.

"Simplemente con ver el contenido de la memoria USB se puede activar el troyano ", explicó el portavoz de Siemens Alexander Machowetz. Por ello, Siemens recomienda "evitar el uso" de estos dispositivos.

Según Machowetz, Siemens se enteró de este problema el pasado 14 de julio.

Stuxnet es uno de los primeros virus en aparecer que atacan el software con el que funciona los sistemas Supervisory Control and Data Acquisition, SCADA. Dichos sistemas se utilizan para monitorizar maquinaria automatizada.

Una vez que el gusano infecta el sistema, rápidamente se comunica con un servidor remoto que puede ser utilizado para robar datos empresariales o, incluso, tomar control del sistema SCADA , según Randy Abrams, director de educación técnica de lafirma de seguridad ESET, que ha estudiado Stuxnet.

Según los analistas, el motivo de la elección de un dispositivo USB para extender el software malicioso ha sido que muchos sistemas SCADA no están conectados a internet , pero, sin embargo, tienen puertos USB .

Según Siemens, por ahora sólo han identificado a un cliente cuyo sistema  SCADA había sido infectado por el virus.

Los expertos en seguridad  han teorizado desde hace tiempo que los hackers -incluidos los que trabajan para grupos estatales o terroristas- desarrollarían algún día virus  que atacasen los sistemas SCADA, pues podrían utilizarse para robar datos sensibles o sabotear instalaciones muy importantes.

Según Abrams, esto podría ser "muy valioso" para "estados naciones" y "organizaciones terroristas".

Jerry Bryant, portavoz de Microsoft, dijo que no sabía cuándo actualizaría la compañía su sistema operativo Windows  para tratar la vulnerabilidad explotada por Stuxnet.

El problema, según Joris Evers, portavoz de McAfee, es que ahora que la vulnerabilidad ha sido publicada, otros ‘hackers’ desarrollarán más ‘software ‘ malicioso para aprovecharse de la misma.

Los expertos de seguridad de Siemens y Microsoft  que han estudiado Stuxnet todavía no han determinado quién es su creador.

HOME


INTERNET PODRIA COLAPSAR

junio 24, 2010

En 1998 un ciberpirata dijo ante el Congreso de los EEUU que podía derrumbar internet en 30 minutos aprovechando una debilidad que causa desconexiones al desviar información. Y hoy el error sigue vigente.

Hkg2007476

En 2003 el gobierno de George W. Bush concluyó que encontrar una solución a este problema era una de las "prioridades vitales" de los Estados Unidos, pero al pasar de los años, muy poco ha cambiado.

Esta falla todavía causa estragos cada año. Aunque la mayoría de los casos son sin malicia y se resuelven rápidamente, el problema puede ser explotado por algún hacker para espiar información o para boicotear páginas de internet.

Mientras tanto, nuestra dependencia a la red sigue en aumento y la próxima desconexión podría afectar empresas, al gobierno o a cualquiera que necesita internet para funcionar normalmente.

Las desconexiones son causadas por la forma algo al azar en la que el tráfico pasa entre las compañías que transmiten la información del internet. Este tipo de desconexiones también son llamadas "hijackings" (secuestros en inglés), aunque la mayoría no son causadas por criminales ni buscan la destrucción. En realidad son un problema derivado de la apertura del internet.

"Es horrible cuando miras un poco más allá de la fachada", dijo Earl Zmijewski, gerente general en Renesys, que da seguimiento al desempeño de las rutas de información del internet. "Me sorprende que cada día cuando llego al trabajo siga funcionando".

Cómo funciona

Cuando se envía un correo electrónico, se ve una página de internet o se realiza cualquier otra actividad en línea, la información que las personas leen y transmiten pasa de un proveedor a otro, a veces en una cadena muy larga.

Por ejemplo, si alguien se conecta a facebook, su información podría pasar de su proveedor de internet a una compañía como Level 3 Communications, que opera una red internacional de líneas de fibra óptica que transmiten información en largas distancias. A su vez la empresa podría pasar esta información a un proveedor que está conectado directamente a los servidores de facebook.

El meollo del asunto es que cada proveedor define cómo enviar la información basándose sólo en lo que los otros proveedores implicados en esta cadena dicen y no en una perspectiva general.

Es como si un chofer tuviera que llegar de Filadelfia a Pittsburgh sin un mapa y circulara guiado sólo por las señales de tráfico que encontrara por el camino. Esto puede funcionar, pero ¿qué pasa si las señales no fueron colocadas por una autoridad? o ¿si una señal indica la dirección incorrecta? Seguramente se pierde.

Esto es esencialmente lo que ocurre cuando una ruta de internet es interrumpida. El sistema no tiene medios seguros y automáticos para verificar que la información de las rutas es correcta y los datos pueden ser dirigidos a algún proveedor que no los espera. Generalmente estos proveedores no saben qué hacer con la información inesperada y la desechan por lo que todo cae en un "hoyo negro".

Un caso en 2008

Un ejemplo de estas desconexiones ocurrió en 2008 cuando Pakistan Telecom intentó cumplir una orden del gobierno para evitar el acceso a YouTube desde Pakistán y envió intencionalmente las solicitudes de videos de los usuarios paquistaníes a hoyos negros.

Sin embargo, la compañía también envió un mensaje accidental al proveedor internacional de YouTube que decía algo como: "Soy la mejor ruta para YouTube. Envíame todo el tráfico de YouTube".

El proveedor de la conexión aceptó el mensaje de enrutamiento y lo pasó a otros proveedores en el mundo que comenzaron a enviar todas las solicitudes de videos de YouTube a Pakistan Telecom. En poco tiempo incluso los usuarios en Estados Unidos no podían ver sus videos y esta desconexión duró varias horas.

"El ‘hijacking’ es muy parecido al robo de identidad. Alguien en el mundo afirma que eres tú", dijo Todd Underwood, que trabajó para Renesys durante el corto causado por Pakistan Telecom.

Difícil solución

Pero a diferencia de los gusanos de internet que se descubren y arreglan fácilmente, el sistema de enrutamiento ha permanecido sin cambios por más de una década y aunque hay progreso, no existe un interés entre todos los especialistas para lograr un remedio permanente. Los proveedores consideran esta debilidad del sistema como el precio que hay que pagar por la estructura abierta y flexible del internet.

Peiter Zatko, integrante del grupo de especialistas llamado L0pht, fue el ciberpirata que declaró ante el Congreso de Estados Unidos en 1998 que podía usar la vulnerabilidad del sistema para desactivar la internet en media hora.

Zatko, quien trabaja ahora para la Agencia de Proyectos Avanzados de Investigación del Pentágono, ha dicho en los últimos años que la falla sigue latente, pero la diferencia es que ahora se llevaría varias horas en vez de 30 minutos, en parte por el mayor número de proveedores de internet que deberían ser boicoteados.

"Es el problema de todos porque afecta la estabilidad de internet, pero al mismo tiempo no es el problema de nadie porque a nadie le pertenece" dijo Doug Maughan, que trata el asunto en el Departamento de Seguridad Nacional de Estados Unidos.

Para otros el control podría limitar las nuevas invenciones que han caracterizado a la red.

"Temo que la innovación en internet se reduciría si se necesita una autoridad central como intermediaria", dijo Pieter Poll director de tecnología en Qwest Communications International. "Y creo que pocos en el ramo están interesados en esto".

Mientras tanto, los administradores de las redes enfrentan a los hackers y las desconexiones en los sitios con medios un poco anticuados.

Simplemente toman el teléfono y llaman a sus colegas cerca del lugar donde ocurrió el "hijacking" para que cambien manualmente la información de enrutamiento, según Tom Daly, director técnico de Dynamic Network Services Inc.

"Hacemos algunas llamadas telefónicas y rezamos", dijo. "Más o menos eso es todo".

HOME

BLOGGER | CLARIN | LIVE | FACEBOOK | TWITTER | SITIO WEB

Alejandro Martinez | apm@grupodeprofesores.com.ar

Fuente: AP


A %d blogueros les gusta esto: