Velocidad de Internet – Aumentar la velocidad de descarga

junio 7, 2011

velocidad-internet

Un eficaz gestor de descargas para incrementar la velocidad de internet puede ser muy útil, con el cual puede aumentar la velocidad de descarga hasta un 500%. En este artículo le decimos cual puede ser esa solución. La aceleración se obtiene gracias a la división del archivo, esto provoca que se descarguen los archivos en varias partes, transfiriéndolas al mismo tiempo.

Lee el resto de esta entrada »

Anuncios

Pasos para crear 1 Blog – Las Mejores Opciones

mayo 30, 2011

pasos-para-crear-1-blog-las-mejores-opciones Aunque la actividad y el uso del blog se vio afectada por el uso de las redes sociales, hay más razones por la que uno desea tener y administrar su propio blog. En este primer artículo le decimos como Pasos para crear un Blog, las Mejores Opciones para donde tenerlo alojado y poder compartir con el mundo lo que quieras.

Lee el resto de esta entrada »


La Computadora más rápida de la Historia

noviembre 2, 2010

COMPUESTA-SERVIDORES-SECRETO-INTERCONEXION-COMPONENTES_CLAIMA20101029_0085_4

TIANHE-1A. ESTA COMPUESTA POR SERVIDORES Y SU SECRETO ESTA EN LA INTERCONEXION DE SUS COMPONENTES. Se usará en astrofísica.

Lee el resto de esta entrada »


LO NUEVO DE INTEL PARA 2011

septiembre 13, 2010

Conocidos bajo el nombre código Sandy Bridge, se trata de la segunda generación de procesadores Intel Core para notebooks y computadoras de escritorio. Sus principales características.

intel_logo2

De acuerdo a lo anunciado por Intel, los nuevos chips se espera que estén en producción a fines de este año y disponibles en laptops y computadoras de escritorio a partir de principios de 2011 .

La novedad fue dada a conocer en el Intel Developer Forum en San Francisco, donde se dijo que la segunda generación de los Intel Core extenderá aún más el desempeño de los chips de la empresa y la duración de la batería, añadiendo una serie de características relacionadas con las capacidades visuales integradas directamente en los procesadores .

Con nombre código "Sandy Bridge", los chips se basarán en la primera nueva microarquitectura "visiblemente inteligente" de Intel, con tecnología de proceso de 32 nanómetros (un nm es la milmillonésima parte de un metro) y transistores High-K Metal Gate de segunda generación.

"La forma como la gente y las empresas están utilizando las computadoras está evolucionando a un ritmo explosivo, alimentando la demanda de una experiencia aún más poderosa y visualmente atractiva", dijo Dadi Perlmutter, vicepresidente Ejecutivo y Gerente General del Intel Architecture Group.

"Nuestra próxima familia de procesadores Intel Core representa el mayor avance de desempeño en relación a cualquier generación anterior. Además de ofrecer estas funciones dentro de laptops con chip Intel, planeamos escalar estos avances a través de nuestro portafolio de productos para servidores, data centers y computación embebida", agregó.

Arquitectura “en anillo”

La familia de procesadores incluirá una nueva arquitectura "en anillo" que permitirá que el motor gráfico integrado del procesador comparta recursos tales como la memoria de caché o una reserva de memoria con el núcleo del procesador para aumentar el desempeño de procesamiento y gráficos de un dispositivo al tiempo que mantiene la eficiencia energética .

Los nuevos Intel Core también incluyen una versión mejorada de Turbo Boost Technology , que permite cambiar o reasignar automáticamente los núcleos de los procesadores y los recursos gráficos para acelerar el desempeño, personalizando una carga de trabajo para darles a los usuarios un aumento de performance inmediato cuando sea necesario.

Intel aseguró además que los nuevos procesadores de gráficos poseen características visuales mejoradas, centradas en las áreas para las que la mayoría de los usuarios utilizan sus computadoras hoy: video en alta definición, tres dimensiones, juegos,realización de múltiples tareas al mismo tiempo y redes sociales o uso de multimedia en línea.

SITIO WEB | WORDPRESS | BLOGGER | CLARIN | LIVE |

Carolina Maglio | cmaglio@grupodeprofesores.com.ar

seguinos por TWITTER y FACEBOOK 


INTERNET PODRIA SER MAS CARA Y DE MENOR CALIDAD

agosto 30, 2010

Si se impusiera el "apagón", en gran parte del país habría sólo una opción tecnológica de similares características: el ADSL, que llega por la línea telefónica. La falta de competencia iría a contramano de las tendencias mundiales, donde se busca mayor innovación y reducir los costos.

fibertel2

Prender la computadora, conectarse a Internet y mirar un largo video en YouTube. Abrir Facebook e intercambiar las últimas fotos, ver los videos que nos recomiendan, “encender” Skype y hablar “por teléfono” con amigos por todo el mundo.

Parece de lo más natural por estos días. Pero nada de esto habría sido posible si no se hubiera masificado la banda ancha en todo el mundo. Un recurso quepodría resultar más caro y de menor calidad aquí, de prosperar la decisión del Gobierno de “apagar” Fibertel, una de las redes más extendidas en el país.

La banda ancha desembarcó hacia fines de los noventa en todo el mundo. Son accesos de alta velocidad con conexión permanente a Internet. De a poco, fueron reemplazando a la tradicional tecnología telefónica conocida como dial up, que era la única disponible hasta ese momento.

Las conexiones dial up –que aún venden las compañías telefónicas– tienen dos grandes inconvenientes: son muy lentas (y uno se queda afuera de las más importantes aplicaciones de Internet de hoy en día) y, por otra parte, consumen pulsos y ocupan la línea telefónica. Así, si uno está navegando no puede recibir ni hacer llamados telefónicos, y viceversa.

La revolución digital que provocó la banda ancha llegó de la mano del cable. Sí, el mismo cable que lleva la televisión a nuestras casas. Fue la primera respuesta que encontró Internet para acercar una conexión rapidísima y confiable al público masivo. A esta tecnología se la conoce genéricamente como “cablemódem”.

Las grandes telefónicas buscaron rápidamente la forma de brindar un servicio similar. Tras distintos experimentos, surgió el ADSL, que es la banda ancha que hoy viaja por el tendido telefónico. Para que funcione adecuadamente, un técnico de la compañía debe instalar un filtro, que separa la información de voz (telefónica) de los datos (Internet).

En “condiciones perfectas” (conectando una computadora directo con el servidor) el cable módem es bastante más veloz que el ADSL. Llega a los 100 megabits por segundo, que es una enormidad. Pero Internet es una red en la que participan millones de PC y miles de otras redes y servidores, los datos pasan por cientos de “cuellos de botella” que son independientes a esta conexión directa con el servidor. Por eso las velocidades teóricas nunca se cumplen.

Además, los proveedores le ponen límites a la velocidad porque la red es un recurso compartido y buscan evitar que uno le quite performance al otro. En rigor, cuando ofrecen una conexión de 3Mbps, por ejemplo, lo que hacen es limitar que los datos bajen a mayor velocidad que eso. Pero la red da para más. Esto sucede tanto para el cable módem como el ADSL.

Como sea, hoy en día las únicas dos tecnologías capaces de llevar a los hogares una buena conexión a gran escala son el cable módem y el ADSL. Una llega por el cable de televisión, la otra por el telefónico. Son dos sistemas de alta penetración geográfica en el mundo y, particularmente, en nuestro país donde el cable tiene una larga tradición. Esto es así porque el usuario no puede conectarse a un cable que no pase por su domicilio y las conexiones inalámbricas aún no alcanzan buenos niveles de calidad.

Fibertel funciona sobre la principal red de cable que cubre la Argentina, la de Cablevisión. Por eso, de cancelarse este servicio, como pretende el Gobierno, la mayoría de los argentinos hoy en día no tendrán otra opción que el ADSL telefónico, llame como se llame el proveedor que finalmente le ofrezca el servicio.

Iríamos a contramano de las tendencias en los países centrales, donde se busca llegar con la mayor oferta y calidad de banda ancha a todos los hogares . En los Estados Unidos, donde Barack Obama impulsa su ambicioso “Plan Nacional de Banda Ancha” el 80% de la población ya tiene acceso a, al menos, dos conexiones de 4Mbps como mínimo, una de ellas provistas por cable módem. Y se espera llegar con cable al 100% de los hogares en 2013, según un informe de la Comisión Federal de Comunicaciones de los Estados Unidos.

Los especialistas dicen que la falta de competencia podría incidir en el precio y también en la calidad de servicio, porque si el ADSL falla, los usuarios no tendrán opciones confiables (desde el punto de vista tecnológico) para cambiar.

HOME


IBM AHORA HACE CINE

julio 28, 2010

El gigante azul contribuyó con la productora Illumination Entertainment para satisfacer los requisitos de producción que planteó la creación de su nuevo largometraje 3D animado por computación, Mi villano favorito.

ibm

En la creación de películas en 3D se mueve tal cantidad de datos e imágenes que requiere realizar una gestión eficiente para obtener el mejor resultado sin que se disparen los costos.

La realización de Mi villano favorito (Despicable Me) implicó cientos de miles de imágenes individuales creadas a mano y renderizadas a través de la animación digital para construir efectivamente cada uno de los cuadros de la película, todo lo cual requiere una alta intensidad de potencia de cómputo.

En Mi Villano favorito se llegaron a generar 142 terabytes de datos, un volumen equivalente al tráfico originado por los 118 millones de usuarios activos de MySpace, se indicó en un comunicado.

Mi villano favorito representa una revolución del modelo de la cinematografía digital geográficamente distribuida y colaborativa, que nos enorgullece estar construyendo desde cero. Al reunir en forma transparente el talento creativo de los Estados Unidos, Francia y otros lugares del mundo a través de la tecnología, completamos un proyecto de producción masiva que a menudo se deja para los estudios de Hollywood más grandes concentrados en una sola ubicación”, explicó Chris Meledandri, productor de Mi villano favorito y fundador de Illumination Entertainment.

Equipos

Illumination Entertainment colaboró con Mac Guff Ligne, un estudio de producción digital de París, para completar los 12 meses de renderizado intensivo de gráficos y animación 3D, que suma 500.000 cuadros por semana.

Para completar el proyecto, el equipo debió diseñar y construir rápidamente una granja de servidores capaz de satisfacer las exigentes cargas de trabajo a lo largo de su equipo de 330 artistas, productores y personal de soporte.

Por eso, además de una mejor gestión del volumen de datos, el equipo de producción buscó en IBM una solución eficiente que evitara los grandes costos de mantenimiento y refrigeración asociados a un centro de datos funcionando 7×24.

Illumination aprovechó los servicios de IBM y su Asociado de Negocio Serviware de París para construir una granja de servidores basada en el sistema iDataPlex de IBM.

Con el diseño y la configuración flexible de este sistema, la compañía pudo satisfacer los intensos requisitos de cómputo para la película y ahorrar espacio duplicando la cantidad de sistemas que pueden ejecutarse en un solo rack IBM.

Para alojar el centro de cómputo se utilizó parte del garaje del centro de producción , ocupando aproximadamente la mitad del espacio asignado originalmente.

La solución iDataPlex incluyó refrigeración por agua, que permite que el sistema se ejecute sin necesitar aire acondicionado, ahorrando hasta 40% de la potencia usada en configuraciones típicas de servidor .

En total, la instalación incluyó 6,500 núcleos (cores) de procesador.

HOME


INTERNET PODRIA COLAPSAR

junio 24, 2010

En 1998 un ciberpirata dijo ante el Congreso de los EEUU que podía derrumbar internet en 30 minutos aprovechando una debilidad que causa desconexiones al desviar información. Y hoy el error sigue vigente.

Hkg2007476

En 2003 el gobierno de George W. Bush concluyó que encontrar una solución a este problema era una de las "prioridades vitales" de los Estados Unidos, pero al pasar de los años, muy poco ha cambiado.

Esta falla todavía causa estragos cada año. Aunque la mayoría de los casos son sin malicia y se resuelven rápidamente, el problema puede ser explotado por algún hacker para espiar información o para boicotear páginas de internet.

Mientras tanto, nuestra dependencia a la red sigue en aumento y la próxima desconexión podría afectar empresas, al gobierno o a cualquiera que necesita internet para funcionar normalmente.

Las desconexiones son causadas por la forma algo al azar en la que el tráfico pasa entre las compañías que transmiten la información del internet. Este tipo de desconexiones también son llamadas "hijackings" (secuestros en inglés), aunque la mayoría no son causadas por criminales ni buscan la destrucción. En realidad son un problema derivado de la apertura del internet.

"Es horrible cuando miras un poco más allá de la fachada", dijo Earl Zmijewski, gerente general en Renesys, que da seguimiento al desempeño de las rutas de información del internet. "Me sorprende que cada día cuando llego al trabajo siga funcionando".

Cómo funciona

Cuando se envía un correo electrónico, se ve una página de internet o se realiza cualquier otra actividad en línea, la información que las personas leen y transmiten pasa de un proveedor a otro, a veces en una cadena muy larga.

Por ejemplo, si alguien se conecta a facebook, su información podría pasar de su proveedor de internet a una compañía como Level 3 Communications, que opera una red internacional de líneas de fibra óptica que transmiten información en largas distancias. A su vez la empresa podría pasar esta información a un proveedor que está conectado directamente a los servidores de facebook.

El meollo del asunto es que cada proveedor define cómo enviar la información basándose sólo en lo que los otros proveedores implicados en esta cadena dicen y no en una perspectiva general.

Es como si un chofer tuviera que llegar de Filadelfia a Pittsburgh sin un mapa y circulara guiado sólo por las señales de tráfico que encontrara por el camino. Esto puede funcionar, pero ¿qué pasa si las señales no fueron colocadas por una autoridad? o ¿si una señal indica la dirección incorrecta? Seguramente se pierde.

Esto es esencialmente lo que ocurre cuando una ruta de internet es interrumpida. El sistema no tiene medios seguros y automáticos para verificar que la información de las rutas es correcta y los datos pueden ser dirigidos a algún proveedor que no los espera. Generalmente estos proveedores no saben qué hacer con la información inesperada y la desechan por lo que todo cae en un "hoyo negro".

Un caso en 2008

Un ejemplo de estas desconexiones ocurrió en 2008 cuando Pakistan Telecom intentó cumplir una orden del gobierno para evitar el acceso a YouTube desde Pakistán y envió intencionalmente las solicitudes de videos de los usuarios paquistaníes a hoyos negros.

Sin embargo, la compañía también envió un mensaje accidental al proveedor internacional de YouTube que decía algo como: "Soy la mejor ruta para YouTube. Envíame todo el tráfico de YouTube".

El proveedor de la conexión aceptó el mensaje de enrutamiento y lo pasó a otros proveedores en el mundo que comenzaron a enviar todas las solicitudes de videos de YouTube a Pakistan Telecom. En poco tiempo incluso los usuarios en Estados Unidos no podían ver sus videos y esta desconexión duró varias horas.

"El ‘hijacking’ es muy parecido al robo de identidad. Alguien en el mundo afirma que eres tú", dijo Todd Underwood, que trabajó para Renesys durante el corto causado por Pakistan Telecom.

Difícil solución

Pero a diferencia de los gusanos de internet que se descubren y arreglan fácilmente, el sistema de enrutamiento ha permanecido sin cambios por más de una década y aunque hay progreso, no existe un interés entre todos los especialistas para lograr un remedio permanente. Los proveedores consideran esta debilidad del sistema como el precio que hay que pagar por la estructura abierta y flexible del internet.

Peiter Zatko, integrante del grupo de especialistas llamado L0pht, fue el ciberpirata que declaró ante el Congreso de Estados Unidos en 1998 que podía usar la vulnerabilidad del sistema para desactivar la internet en media hora.

Zatko, quien trabaja ahora para la Agencia de Proyectos Avanzados de Investigación del Pentágono, ha dicho en los últimos años que la falla sigue latente, pero la diferencia es que ahora se llevaría varias horas en vez de 30 minutos, en parte por el mayor número de proveedores de internet que deberían ser boicoteados.

"Es el problema de todos porque afecta la estabilidad de internet, pero al mismo tiempo no es el problema de nadie porque a nadie le pertenece" dijo Doug Maughan, que trata el asunto en el Departamento de Seguridad Nacional de Estados Unidos.

Para otros el control podría limitar las nuevas invenciones que han caracterizado a la red.

"Temo que la innovación en internet se reduciría si se necesita una autoridad central como intermediaria", dijo Pieter Poll director de tecnología en Qwest Communications International. "Y creo que pocos en el ramo están interesados en esto".

Mientras tanto, los administradores de las redes enfrentan a los hackers y las desconexiones en los sitios con medios un poco anticuados.

Simplemente toman el teléfono y llaman a sus colegas cerca del lugar donde ocurrió el "hijacking" para que cambien manualmente la información de enrutamiento, según Tom Daly, director técnico de Dynamic Network Services Inc.

"Hacemos algunas llamadas telefónicas y rezamos", dijo. "Más o menos eso es todo".

HOME

BLOGGER | CLARIN | LIVE | FACEBOOK | TWITTER | SITIO WEB

Alejandro Martinez | apm@grupodeprofesores.com.ar

Fuente: AP


VIDEOJUEGOS ONLINE

junio 17, 2010

Se trata de OnLive, que ofrece acceso a videogames sin que los usuarios deban instalarlos en sus computadoras. En la industria miran con atención el servicio, una probable amenaza al modelo de negocio tradicional.

onlive

El servicio de distribución de videojuegos OnLive anunció su primera serie de juegos y un nuevo plan de tarifas, antes de su esperado lanzamiento.

OnLive apareció en el 2009 tras años de desarrollo en secreto, y pretende ofrecer acceso inmediato y sin interrupciones a videojuegos almacenados en servidores remotos en centros de datos.

La industria está siguiendo muy de cerca el lanzamiento, ya que es una posible amenaza al modelo de juego tradicional basado en la consola.

El proyecto saldrá al mercado el 17 de junio con 20 juegos disponibles para alquiler oventa, incluyendo títulos como el "Assassin’s Creed II" de Ubisoft, el "Mass Effect 2" de Electronic Arts o el "Batman: Arkham Asylum" de Square Enix’s.

Casi todos los grandes estudios ofrecerán juegos en esta plataforma, con la notable excepción de Activision Blizzard, la productora independiente de juegos más grande del mundo por su cotización en el mercado.

OnLive estará disponible gratis durante el primer año a través de una oferta de tiempo limitado con la operadora de telecomunicaciones AT&T, que es una de los inversores de la empresa.

La compañía ha declinado decir cuánto cobrará al mes en el futuro, diciendo sólo que será mucho menos que los u$s14,95 anunciados en un principio.

Se accede al servicio a través de una computadora tradicional y más tarde, mediante un dispositivo especial, desde el televisor.

Los juegos costarán hasta u$s60 en modo de compra -un precio similar al de un título tradicional en tienda- y el servicio se llevaría una parte. También ofrecerá alquileres de tres y cinco días por menos de 10 dólares.

El consejero delegado de OnLive, Steve Perlman, señaló que los productores de juegos están deseando que su proyecto tenga éxito porque los juegos distribuidos en formato digital tienen unos márgenes de beneficio mucho mejores que los de soporte físico, y porque en la práctica eliminan el mercado de reventa de juegos usados , del que los estudios no ven un céntimo.

"Los editores han estado poniendo mucha presión en los fabricantes de consolas para que encuentren una solución a los juegos usados (…) no lo han hecho, OnLive resuelve eso", afirmó.

El sector mira con atención la evolución de este modelo, para ver si la tecnología funciona como se ha anunciado y para comprobar si los jugadores aceptarán el sistema,similar al de las películas bajo demanda que los consumidores alquilan a sus empresas de televisión por cable .

Más de 25.000 usuarios se han preinscrito ya en la web, indicó Perlman.

OnLive ha instalado miles de servidores diseñados a medida por Dell en centros de datos colocados en diferentes lugares de Estados Unidos para gestionar la demanda.

La empresa tiene previsto añadir nuevos usuarios poco a poco, para no sobrecargar los servidores y evitar cualquier caída del servicio.

Andy Rhodes, director de marketing del negocio de Soluciones de Centros de Datos de Dell, señaló que este proyecto es el último ejemplo del cambio de tecnología para que el usuario acceda a datos que no se encuentran archivados en su PC, sino en servicios que los almacenan en servidores remotos.

HOME

BLOGGER | CLARIN | LIVE | FACEBOOK | TWITTER | SITIO WEB

Alejandro Martinez | apm@grupodeprofesores.com.ar


RAPIDSHARE NO ES RESPONSABLE DE SU CONTENIDO.

mayo 6, 2010

Un tribunal alemán indicó que el servicio de alojamiento de archivos no es responsable por el contenido que suben sus usuarios. De este modo, avaló una plataforma que utlizan millones de piratas en la web.

rapidshare

"Se confirma que RapidShare no es responsable de los contenidos subidos por sus usuarios. La sentencia demuestra que los intentos de denunciar como ilegal nuestro negocio no tendrán éxito en el largo plazo", sentenció Christian Schmid, fundador de la empresa, en el blog corporativo.

El tribunal de apelaciones de Dusseldorf dijo además en la sentencia que RapidShare no puede examinar individualmente cada elemento que almacena en sus servidores.

De ese modo avaló el funcionamiento de una plataforma utilizada por millones de piratas en la web, que anónimamente suben contenidos ilegales a la web.

RapidShare fue fundada en 2006 y desde ese año enfrentó numerosas demandas por parte de diversas empresas. En este caso, la acción legal fue iniciada por Capelight Pictures.

El tribunal estima que el servicio de RapidShare no funciona como un motor de búsqueda y que son los usuarios los que deciden qué archivos suben y en qué forma los publicitan frente a otros.

Por último, el tribunal reconoció que RapidShare reaccionó ante la petición de los dueños de los derechos intelectuales y eliminó el contenido en cuestión.

HOME

BLOGGER | CLARIN | LIVE | FACEBOOK | TWITTER | SITIO WEB

Alejandro Martinez | apm@grupodeprofesores.com.ar


HOTMAIL VS GMAIL

mayo 5, 2010

Según se filtró en la web francesa de Microsoft, el beta de Windows Live Wave podría estar disponible a partir del día 21 de junio. Las expectativas están puestas en Hotmail.

hotmail

Entre las principales novedades que se incorporarán se destacan:

Opción de vista rápida de mensajes: con esta función se podrá tener una idea global de los mensajes, viendo todos los correos pendientes de una sola vez o centrando la vista sobre una conversación, por ejemplo. Podemos aplicar el filtro que nos convenga en cada ocasión y después regresar a la vista general.

Más seguridad: para hacer frente al phising, incluye una lista de correos verificados donde sólo se destacarán aquellos que hallamos confirmado previamente. También se mejora la encriptación de la información para preservar la privacidad, especialmente cuando accedemos a los servidores de Microsoft vía móvil.

Mejor integración con el móvil: con un número creciente de usuarios accediendo a su correo electrónico a través de la pequeña pantalla del móvil, Microsoft ha hecho un esfuerzo para mejorar el acceso a Hotmail desde estas plataformas. De momento, incluye por primera vez Activesync, una tecnología de sincronizaciónn de datos presente en la mayoría de los teléfonos móviles y que permitirá sincronizar el calendario o los contactos de Windows Live.

Función de ‘barrido’ para combatir el ‘spam: desde el nuevo menú ‘sweep’ podremos mover los mensajes de una carpeta, borrarlos o marcarlos como no leídos

Webmessenger incorporado: podremos buscar nuestros contactos en la parte inferior izquierda de la pantalla.

Archivos adjuntos, más cómodos: ahora podremos modificar el archivo adjunto que nos envían y contestar directamente. Sin necesidad de adjuntarlo de nuevo habrá guardado las modificaciones.

HOME


A %d blogueros les gusta esto: