viernes, 18 de marzo de 2011

Nos quieren quitar Internet o almenos limitarlo haciendo division de clases

Ayer os comentábamos el último desvarío de quienes intentan cortar los lazos de la democracia en la red. Un software para controlar, para “militarizar” lo que se dice, quién lo dice y cómo se dice en la red. No sólo eso, el día de ayer dio para mucho, y casi todo malo. En un sólo día nos enterábamos de lo siguiente: en Estados Unidos se ponía la primera piedra para aumentar la censura, una propuesta en el Congreso con la que perseguir y enjuiciar el uso del streaming como delito. Además, se cerraba la web de foros españolas exvagos.es, una persecución que realmente comenzó en noviembre del año pasado, cuando Estados Unidos decidió “apretar” contra todos los alojamientos que colgaran contenidos con derechos de autor. Como colofón, y desde el mismo país, se sabía de otro software dirigido para controlar las redes sociales.
Viajamos a Europa. Actualmente, la Unión Europea espera al próximo mes de mayo para la resolución de las nuevas normas de seguridad en la red. Se trata de un movimiento que busca reforzar la seguridad en el usuario, una aplicación que supondrá que la navegación, tal y como la conocemos hoy, variará. Ni mejor ni peor, simplemente el usuario podrá adoptar medidas de seguridad ante el envío de publicidad masiva. ¿El fin de las cookies? Se verá con el tiempo, pero esta medida invita a pensar que las startups europeas perderán terreno frente al resto en su propio territorio, ya que la medida sólo tendrá jurisdicción en aquellas compañías cuyo origen se encuentra en Europa.
De las revueltas en el mundo árabe hemos hablado mucho últimamente y casi todo apunta a que las herramientas que nos ofrece la web han ayudado al levantamiento de los pueblos. La mal llamada revolución de la red, es una revolución de la gente a la que las nuevas tecnologías les han permitido estar conectados, informarse y organizarse. Es evidente que esta idea no gusta, y no hay más que mirar al pasado reciente y los intentos de corte de Internet en Egipto o en Libia o las propuestas en Estados Unidos del llamado ‘Kiil Switch’ (poder para que el presidente corte la conexión bajo amenaza), para pensar que las redes, tal y como las conocemos hoy, no gustan. En primer lugar porque los gobiernos no las pueden controlar y en segundo lugar porque hay que buscarle “beneficios” a la nueva comunidad.

En el Reino Unido también se debate estos días sobre la posibilidad de una Internet con dos velocidades. En este caso, el agravante es claro. Se trata de que los proveedores tengan dos “ofertas”, una para el ciudadano normal, y otra dirigida a las grandes compañías que “juegan” en la red. Diferencias: La “nuestra” será más lenta y más barata. La “otra” tendrá un ancho de banda enorme donde las compañías puedan manejar muchos datos. ¿Dónde está la trampa? Principalmente, lo que se critica es que este poder podría implicar ralentización a unos y priorización a otros, dependiendo de los contratos o la relación que tenga un proveedor con ciertas empresas.
Esta es más o menos la situación actual de la red y los debates más calientes. Existen otros, conocemos la Ley Hadopi o La Ley Sinde, pero ambas son derivadas, su origen surge de la necesidad de controlar y de la presión de los lobbies. Existen y existirán, pero son parches mínimos en comparación con las ideas y propuestas de los “grandes”.
La llegada de nuevos actores como WikiLeaks o los mismos Anonymous arrojan aún más incertidumbre y casi parece que existe una mayor celeridad en concretar un nuevo orden en la red.
Quizá todo se deba a que la propia Internet es un derivado de los grandes monopolios de siempre. Internet ha recogido lo mejor de la música, el cine o la literatura y lo ha transformado. La Industria en cambio no ha modificado, sigue en la misma línea, casi no ha cambiado. A los medios de comunicación les ha ocurrido algo parecido. Ayer nos enterábamos de que el prestigioso New York Times apostaba finalmente por los contenidos de pago ¿se equivoca? El tiempo lo dirá, pero como decían mis compañeros Pepe o Eduardo, en una sociedad, la digital, donde si no eres visible nadie te ve, el movimiento se antoja arriesgado.
Ese mismo concepto, el de invisibilidad, es el que parece que quieren. Mientras menos ruido haya, mientras más insignificantes seamos, todo podrá seguir como antes. Por todo esto, el concepto de neutralidad en la red parece cada vez más una utopía, y la Internet, tal y como la conocemos hoy, una idea del pasado.

Fuente: http://alt1040.com/2011/03/nos-quieren-quitar-internet

Los comentarios en Facebook ahora pueden ser editados (pero sólo antes de un minuto)

Los comentarios en Facebook ahora pueden ser editados (pero sólo antes de un minuto)
Reconozco que no soy muy de utilizar Facebook y que entro muy de vez en cuando. Y no falla: cuando entro, pareciera que siempre hubiera un cambio en algo. Lo que ha tocado recientemente ha sido una actualización en su sistema de comentarios.
Cuando dejamos un comentario en la actualización de alguien (o en una foto o enlace), debemos tener cuidado porque en el momento en que pulsemos Enter se publicará lo que hayamos escrito. Si lo que queremos es crear una línea nueva dentro del comentario, hay que pulsar Shift+Enter.
También han incluido la posibilidad de editar el comentario que publiquemos. Si pasamos por encima de él, veremos una X a la derecha. Aunque dice eliminar, al pinchar en ella, aparecerá de nuevo la casilla con el texto que escribimos. Pero ojo con esto, que la posibilidad de editar es sólo durante un minuto después de que lo hemos escrito. Después de ese tiempo, tan sólo podremos eliminarlo.
Ah, y por lo visto también el usuario en cuya actualización comentemos, recibirá una notificación por correo no sólo cuando lo publiques, sino también cuando lo edites, aunque esto no he tenido la posibilidad de comprobarlo. Lo de implementar la publicación al pulsar Enter me ha parecido un poco confuso, pero admito que lo de la edición de los comentarios es una buena idea.
Vía | Download Squad

Fuente:http://www.genbeta.com/redes-sociales/los-comentarios-en-facebook-ahora-pueden-ser-editados-pero-solo-antes-de-un-minuto

Internet Explorer 10 podría acompañar la salida de Windows 8

windows-8-junto-a-ie10
Es un rumor con cierto fundamento y coherencia. Microsoft acaba de liberar la versión 9 de Internet Explorer y como suele ocurrir tras un lanzamiento, ya se piensa en la siguiente evolución del producto. Por lógica y dado que todo apunta a que la versión 8 del sistema operativo podría adelantar la fecha de lanzamiento, viendo además los planes de la competencia, en Redmon pueden tener esa intención.
La información proviene de Win7China, que también ha filtrado algunas de las primeras ocho capturas de pantalla “legítimas” de Windows 8, por lo que al rumor puede concedérsele cierta credibilidad, han demostrado que sus fuentes de información son sólidas. También afirman que IE10 ya se encuentra en Windows 8 M3, pero este punto aún no ha podido contrastarse con otra fuente.
También parece ser que la versión 10 de Internet Explorer estaría destinada a Windows 7 y Windows 8. ¿Quedando Vista descolgado? Otra argumentación para otorgar verosimilitud a esta información es que habría tiempo para hacer coincidir ambos lanzamientos, algo más de un año, para que IE10 estuviera lo suficientemente maduro como para llegar al consumidor. Noticias de esta índole han de tomarse con sano escepticismo, habrá que estar atento.
Vía | Neowin

Fuente:http://www.genbeta.com/sistemas-operativos/internet-explorer-10-podria-acompanar-la-salida-de-windows-8

jueves, 17 de marzo de 2011

EEUU equipara el terrorismo con la piratería para cazar internautas

La lucha contra las descargas en Internet en Estados Unidos sube de tono. El Gobierno del país norteamericano está dispuesto a intensificar las medidas para perseguir a los internautas que infrinjan los derechos de autor y para ello se apoyará en la famosa Patriot Act, la ley antiterrorista promovida por el ex presidente George Bush tras el 11-S.

Según leemos en Nación Red, el Gobierno de Estados Unidos se ha propuesto revisar y endurecer las leyes que protegen los derechos de autor y los delitos de falsificación de marcas. Esta revisión incluiría que los agentes federales del FBI puedan realizar escuchas telefónicas basándose en la legalidad que dio pie a la Patrioct Act, es decir, la discrecionalidad con que cuentan las fuerzas de seguridad en los casos relativos al terrorismo.

"Ayudar a las fuerzas del orden a investigar con eficacia estos graves delitos" es el argumento en que basa la Administración de Barack Obama la necesidad de endurecer las acciones. La encargada de presentar el proyecto en el Libro Blanco ante el Congreso estadounidense ha sido Victoria Espinel, la persona cuya misión es velar por los intereses de la propiedad intelectual. Su objetivo, según afirmó es solucionar "las deficiencias que obstaculizan el cumplimiento de las leyes de propiedad intelectual".

Entre las medidas propuestas también está prolongar las penas de prisión por delitos contra la propiedad intelectual. Según Espinel, este tipo de delitos son "de un gran atractivo para los grupos criminales, que utilizan esta fuente de ingresos para financiar sus otras actividades ilegales". Asimismo, por primera vez se incluyen "otrars nuevas tecnologías similares" que permiten infringir los derechos de autor. De este modo, la infracción por streaming de vídeo o música también sería duramente perseguida.

El apoyo por parte de los políticos demócratas a la protección de la propiedad intelectual parece un hecho. Joe Biden, vicepresidente de la Administración Obama y uno de los políticos que más presionaron para que la Ley Sinde saliese adelante, siempre fue un firme aliado de los titulares de los derechos de autor en el Senado y es conocido por su lucha contra la piratería.

El país norteamericano destaca ya por la persecución por parte de la industria cultural a los usuarios que relizan descargas de material protegido con copyright. Sólo en el último año hasta 100.000 internautas fueron perseguidos y demandados por descargar contenidos a través de redes P2P como BitTorrent. Sin embargo, la mayoría de estas demandas acaban convirtiéndose en agua de borrajas. Esta situación podría cambiar si la legislación se endurece, aunque equiparar el terrorismo con la piratería en la Red suena a medida extrema.

Fuente:http://www.adslzone.net/article5642-eeuu-equipara-el-terrorismo-con-la-pirateria-para-cazar-internautas.html

Informatica+Filosofia en Oxford

La Universidad de Oxford a partir de ahora ofrecerá una nueva carrera que bueno, hace que se me caiga la baba: “Ciencias de la Computacion y Filosofia“. La duración será de 3 a 4 años y el motivo, si es que hace falta que alguien explicite un motivo para algo tan importante y fascinante es, según la pagina oficia, que:
las dos disciplinas comparten áreas, como ser la representación de la información y el razonamiento, en tanto ambas comparten temas de interés como algoritmos, el conocimiento, la inteligencia, el lenguaje, modelos, pruebas y verificaciones. Aquellos interesados en las Ciencias de la Computación deben ser capaces de reflexionar de manera critica sobre estos temas a medida que van incorporando conocimientos.

El lenguaje elegido para abrir las mentes de los afortunados y adinerados que pasen algunos de los mejores meses de su vida en la mencionada Universidad no ha sido otro que Haskell, ya que con su enfoque completamente funcional “enseña a pensar” matemáticamente y abre la cabeza (esto último agregado por mi).

Fuente:http://gr3p.com/2011/03/haskell-y-filosofia-en-oxford/

Informacion sobre kernel 2.6.38 ,increiblemente bueno, 100% recomendado por mi ;)

Tras diez semanas de trabajo del equipo dirigido por Linus Torvalds, ya tenemos con nosotros una nueva versión del kernel Linux, se trata de Linux 2.6.38, versión que promete una mayor velocidad gracias a algunos ajustes, entre ellos el famoso parche de 200 líneas de código, además se han añadido nuevos controladores para gráficos y Wi-Fi y se ha agregado el soporte para los nuevos chips AMD Fusion, entre varias otras características que resumo a continuación.
kernel linux11 Linux 2.6.38, mayor velocidad y más soporte para gráficos y Wi Fi
Como adelantábamos, en esta versión se ha mejorado la agrupación automática de procesos mediante el parche de 223 líneas de código desarrollado por Mike Galbraith en noviembre del año pasado. En esencia el parche cambia la forma en que el planificador asigna tiempo de CPU a cada proceso para que el sistema pueda agrupar todos los procesos con el mismo ID de sesión. Esto, bajo ciertos escenarios entrega un enorme rendimiento adicional según las pruebas.
Otro cambio tiene que ver con mejoras en la escalabilidad de VFS (Virtual File System), donde se ha logrado que tanto las cargas de trabajo multi-hilo como algunas cargas con procesos únicos, sean mucho más rápidas. Por otro lado para Btrfs se añade soporte para la compresión transparente con el algoritmo de LZO, como alternativa a zlib y también se agrega soporte para marcar snapshots como de solo lectura y la característica “force mounting”.
Otra mejora tiene que ver conTransparent Huge Pages”, que permitirá usar páginas hasta 2MB de memoria para procesar (siendo que hasta ahora eran de 4KB), con lo cual se logra aprovechar mejor el hardware y lograr un “mayor desempeño, en especial en las cargas de trabajo que requiere una gran cantidad de memoria como servidores de JVM y base de datos”, según lo que señaló Tim Burke, vicepresidente de ingeniería Linux de Red Hat.
Se agrega también el protocolo de ruteo proactivo para Redes Mesh Ad-hoc Inalámbricas: B.A.T.M.A.N. (Better Approach To Mobile Ad-hoc Networking), que en la practica ayudará a proveer de conectividad de red en presencia de desastres naturales, conflictos militares o censura de Internet gracias a que este protocolo permite a la red funcionar como una malla donde cada nodo de enrutamiento participa en los datos de reenvío para otros nodos de forma dinámica.
Y por último podemos destacar el soporte de hardware que como siempre, aumenta versión a versión del núcleo. Respecto a esto es muy bueno saber que se ha añadido soporte para el nuevo AMD Fusion, que como sabemos combina CPU y GPU en una sola unidad (APU), así como la inclusión de nuevos controladores gráficos para GPUs NVidia y AMD, también han agregado mayor soporte para tarjetas Wi-Fi como Atheros, Broadcom, Intel, y Ralink Realtek, etc.
Eso entre muchos otros cambios que se han hecho “en tiempo record”. Pueden ver mayores detalles en el siguiente enlace, también recomiendo este artículo preparado por H-Online donde detallan a fondo varios de los cambios y características que se han agregado en esta versión. Si lo deseas puedes descargar también el nuevo núcleo desde aquí o esperar pacientemente a que sea incluido en una próxima versión de tu distro favorita.

Fuente:http://www.muylinux.com/2011/03/16/linux-2-6-38-mayor-velocidad-y-mas-soporte-para-graficos-y-wi-fi/

Distribuciones especializadas


Uno de los mejores aspectos que ofrecen los sitemas GNU/Linux es la enorme flexibilidad a la hora de su uso, se podría decir que las posibilidades son ilimitadas con los conocimientos y experiencia adecuados.

Y esta característica no pasó desapercibida ni un instante, siendo aprovechada por miltitud de programadores, desarrolladores e inlcuso usuarios comunes que no viven de esta actividad.
Hoy voy a indicaros algunas distros (100% libres y gratuitas) concebidas para un uso concreto, seguro que le encontrareis utilidad a alguna en vuestros equipos.
SystemRescue CD
Decidi empezar por la que más uso. Es una distro muy ligera destinada a la recuperación y/o reparación del sistema o datos, pudiendo crear/restaurar copias de seguridad. Soporta una gran cantidad de hardware, sistemas de ficheros y posee las herramientas necesarias para convertirla en nuestra "salvadora" (mc, gparted, fstools, partimage y otros editores y herramientas de red). Los requesitos son muy bajos, 256 MB de RAM y cualquier procesador x86.

Edubuntu
Es una distro creada para llevar a las escuelas o cualquier otro centro de aprendizaje. Contiene una gran cantidad de aplicaciones pensadas para distintos niveles educativos. Los requesitos que exije son los mismos que los de Ubuntu, pero se necesita un DVD o un pendrive con capacidad superior a 2GB.

Vinux
Esta distribución no está prevista para ninguna especialización en concreto, si no que va enfocada a una parte de "usuarios comunes", aquellos con dificultades en su vista. Este sistema posee un magnificador de pantalla y lector de la misma, además de soporte para dispositivos Braile. Está basada en Ubuntu y por tanto los requesitos son los mismos.

Mythbuntu
MythTV es un software que destinado a grabar vídeo y realizar streaming en la web, además de otras tareas. Es un porgrama del que solo se dispone el codigo fuente, por tanto uno debe compilar su propio paquete, o usar esta distro. La cual ya esta diseñada para facilitar el uso de esta aplicación.

Ubuntu Studio
 Esta ya es bastante famosa. Para crear y editar contenido multimedia uno puede instalarse las aplicaciones necesarias o instalar esta distro, sobretodo si se piensa usar de manera bastante exclusiva. Posee un repertorio bastante satisfactorio para la realización de estas tareas, como Audacity, Inkscape, GIMP o Blender. Recomiendo que antes de uso os paseis por ésta documentación y comprobar el hardware compatible, es importante tener unas placas 100% compatibles para conseguir el máximo rendimiento y funcionalidad. Es necesario un DVD o pendrive con capacidad de 2GB o más.

Musix
 Es una distro similar a la que comente anteriormente pero muchos mas especializada en la música, pudiendo resultar útil para DJs o técnicos en sonido. Lo mismo que la anterior recomiendo comprobar el hardware en este foro, viendo los temas ya hechos o preguntando.

Live Linux Gamers
El unico objeto de esta distribución es dar acceso a una gran cantidad de juegos de un "golpe". No le encontrareis ni una sola utilidad a mayores. Los requerimientos son relativamente bajos procesador x86, 512 MB de RAM y una targeta gráfica que admita aceleración 3D, aunque ya sabemos que para los juegos cuanta más potencia mejor.

Clonezilla
Otra distro con una sola utilidad, clonar discos duros. Es bastante competente para esta tarea siendo alternativa a muchas soluciones comerciales en lo que a funcionalidad se refiere. Exige poco hardware, procesador x86 o x86-x64 y 196 MB de RAM.

GParted LiveCD
GParted es uno de los mejores programas para administrar particiones, por tanto se decidió crear una distro solo para el solito. Con los requesitos del SystemRescueCD es suficiente.

StressLinux
Puede que alguien necesitara alguna vez exprimir al máximo su sistema, para ello se suele poner algún juego, pero también se puede usar este LiveCD. Como su nombre indica ofrece las herramientas necesarias para llevar al límite tu equipo. El único inconveniente es que no tiene interfaz gráfica. Los requesitos son tener un equipo, ya que lo que harás es medirlo.

IPFire
Algunos usuarios al renovar su ordenador usan su viejo para administrar distintos aspectos de la red local, como puede ser un enrutador o un firewall, con este SO podrás realizar cualquiera de estas actividades de manera sencilla. Sus requesitos son un procesador con velocidad de 333 MHz y 128 MB de RAM, para enrutar requiere dos targetas de red.

BackTrack
Está dedicada a la prueba y evaluación de la seguridad de tu red. Con ello se podrá cualificar la invulnerabilidad de un sistema, partiendo del hecho de que ninguno es invulnerabe 100%. Requierer un procesador x86 y 128 MB de RAM además de conocimientos previos, el la web se pueden encontrar algunos tutoriales y buscando por ahi cursos.

GnackTrack
Similar a la anterior pero usa como base Ubuntu con Gnome. Para esta se necesita un DVD o un pendrive de mas de 2GB.

Wifislax
 Basada en BackTrack, esta distro mejora la compatibilidad de la anteriormente mencionada frente a targetas de red inalámbricas.

Zentyal
Si lo que quieres es un servidor Linux, este es tu SO. Permite realizar tareas como Firewall, puerta de enlace, servidor DHCP o DNS; dar soporte a e-mail y otras muchas acciones. Si bien su instalación y configuración puede ser complicada existen videotutoriales, "HowTo's", documentación y un foro accesibles desde su web oficial.

Scientific Linux
Es una distro creada por científicos e instituciones importantes para ofrecer un sistema común a laboratorios, con aplicaciones útiles y necesarias para este campo.

Poseidon Linux
Su nombre se debe a la gran participación de oceanógrafos en su desarrollo. Pero ofrece aplicaciones útiles en distintos campos (matemáticas, física, etc). Su ritmo de desarrollo es lento, ya que sus mantenedores priman la estabilidad frente a casi cualquier otra característica del software.

FreeNAS
Y para finalizar deje esta, porque no es una distro GNU/Linux exactamente, su núcleo es FreeBSD, pero me pareció interesante. Con ella conseguiras un servidor de datos centralizado en una red. Resulta la mejor alternativa a Windows Home Server.


Espero que os haya resultado instructivo y de ayuda. Admito cualquier objección o idea para añadir más a la lista, si conoceis alguna distro especializada no dudeis en comentarlo.

Fuente:http://putodeb.com/index.php?option=com_content&view=article&id=231:distribuciones-especializadas&catid=65:otras-distribuciones

Ver porno en el trabajo no es causa de despido

Nos informa Alejandro Tourino de que acceder a páginas de contenido adulto en horario laboral empleando el ordenador del trabajo no es causa de despido, incluso en el caso de que la empresa, con carácter previo, le haya dado instrucciones expresas en contrario. O al menos eso es lo que ha entendido el Tribunal Superior de Justicia de Madrid en una Sentencia (TSJM, 12/01/2010, R 5123/2009). No es ésta la primera ocasión en la que nuestros tribunales se pronuncian en sentido similar pero, en este supuesto particular, la Sala ha ido más allá. Y es que en el presente caso, a diferencia de otros, la empresa sí contaba con un protocolo de uso de dispositivos electronicos que advertía a los trabajadores de que el acceso a Internet está expresamente limitado a usos profesionales, lo que se venía entendiendo como determinante para entender la improcedencia o no del despido.

Fuente:Barrapunto

miércoles, 16 de marzo de 2011

La NASA considera eliminar la basura espacial con lásers

Suena a ciencia ficción, pero la NASA está considerando eliminar la basura espacial con disparos láser. Los desperdicios que flotan en la órbita de la Tierra son un peligro para las misiones. De acuerdo con el astrónomo Don Kessler, llegará un momento en que los desechos sean tantos que será demasiado peligroso volar en el espacio. Así que a grandes problemas, grandes soluciones.
Se calcula que son más de 600 mil objetos los que flotan alrededor de nuestro planeta. Cada uno de estos, representa un problema potencial para naves y satélites. En 2009, dos fragmentos pasaron muy cerca de la Estación Internacional Espacial, cuyo impacto hubiera sido de consecuencias desastrosas. Creon Levit, ingeniero de la NASA, considera que, lejos de solucionarse la situación, cada día se torna peor.
Aunque una porción de la basura es atraída por la gravedad de la Tierra y se desintegra al contacto con la atmósfera, la realidad es que un buen porcentaje se queda a la deriva. Por esta razón, el científico James Mason sugiere un nuevo método. En lugar de atraer los desperdicios a la Tierra, hay que prevenir que estos pedazos sigan chocando entre sí. Al impactar unos contra otro, los desechos espaciales se hacen cada vez más pequeños. Entre mayor sea su tamaño, es mayor la posibilidad de que sean naturalmente atraídos por la gravedad. Además, los pedazos diminutos son los que más problemas acarrean en caso de choque.
Los investigadores sugieren que se dispare un láser de poder medio a los objetos que estén próximos a una colisión. Los protones del rayo podrían desacelerar el proyectil cerca de 0.05 centímetros por segundo. Calculan que disparar el láser por una hora o dos al día podría mover el objeto aproximadamente 20 metros por día.
Funcione o no esta propuesta, la NASA debe estar (pre)ocupada por resolver esta problemática. Recordemos que también se ha sugerido el uso de globos de helio, pero esta idea no ha sido implementada aún. No es la primera vez que se sugiere una alternativa con láseres, aunque en está ocasión, poco tiene que ver el cliché de pulverizar el objeto con un rayo o una idea similar. De hecho, se abandonó la última propuesta porque la comunidad internacional no estaba muy contenta con tener un láser que pudiera, eventualmente, funcionar como un arma desde el espacio.

Fuente:http://alt1040.com/2011/03/la-nasa-considera-eliminar-la-basura-espacial-con-lasers

Liberado el Kernel 2.6.38


Finalmente Linus Torvalds ha liberado la versión 2.6.38 del Kernel de Linux. La versión viene con menores mejoras respecto de la RC8 de la misma versión (ver nota sobre la RC1) y con importantes novedades respecto de la versión 2.6.37.
En especial se agregan drivers open source para la parte gráfica, así mismo mejoras en Btrfs file-system y otras correcciones, incluyendo correcciones para los problemas de AMD Fusion.
Así mismo hay novedades para la serie AMD Radeon HD 6000 con soporte open source, soporte para Fusion Linux, Radeon KMS, Nouveau GeForce 400/500 (brindando soporte para aceleración aunque siga requiriendo de cierto firmware non-free).
También se incluye el patch de las 200 lineas y otras mejoras de menor nivel, que aun que no parecan mucho marcan diferencia en equipos de recursos limitados

Fuente:http://elsoftwarelibre.wordpress.com/2011/03/15/liberado-el-kernel-2-6-38/

Google adquiere una compañía para mejorar la calidad de los vídeos de YouTube

Google ha adquirido la compañía Green Parrot Pictures, lo cual posiblemente, y sin consultar en ninguna parte, no os diga nada, como me sucedió a mí. Se trata de una pequeña compañía que ha desarrollado tecnologías de mejoramiento de calidad de vídeo digital, las cuales han sido utilizadas en películas como “El Señor de los Anillos”, “X-Men” o “Spiderman”.
El objetivo con esta compra es mejorar la calidad de los vídeos de YouTube al mismo tiempo que se reduce el uso de ancho de banda. Como acotan en el post donde se ha hecho el anuncio, se trata de poder mejorar aquellos vídeos tomados con cámaras de baja calidad (como las de muchos móviles) sin necesidad de que el usuario haga nada más que subir su grabación.
Dicho así, suena como muy CSI, ¿verdad? En la página de la compañía se pueden ver unos cuantos vídeos mostrando sus desarrollos. En algunos de ellos, los resultados son muy sutiles y difíciles de apreciar, pero en otros se ven con claridad las mejoras, como en el que encabeza esta entrada, que hace referencia a una tecnología de estabilización de la grabación.
Una adquisición muy prometedora. Ojalá no tardemos mucho en ver los efectos de esta compra dentro del famoso portal de vídeos. Cuando se implante, tened por seguro que os avisaremos.
Vía | YouTube blog
Enlace | Green Parrot Pictures

Fuente:http://www.genbeta.com/multimedia/google-adquiere-una-compania-para-mejorar-la-calidad-de-los-videos-de-youtube

Chrome también cambia su logotipo

chrome-cambio-logotipo
Comentábamos en Genbeta el pasado fin de semana el cambio, sin aviso ni explicación oficial, en el logotipo de Chromium, el navegador de código abierto de Google. Chrome ha cambiado su logotipo también, siguiendo la estela del primero. Agradecemos a Robinson Molina el aviso.
Conserva el esquema de color y adopta las dos dimensiones. Algunas de las especulaciones que hicimos entonces, tanto en el artículo como en vuestros comentarios, cobran sentido y otras pueden descartarse. No se trata de diferenciar un producto de otro, está claro.
Todo apunta a que el cambio de imagen obedece a razones estéticas acordes con una idea de modernidad. En lo que se ha denominado la guerra de los navegadores, cada detalle cuenta. La competencia es muy dura.
La aparición en escena de la Internet Explorer 9, Firefox 4 que está a punto de lanzarse, Opera 11 liberado en diciembre y en pleno proceso de renovación con el nuevo Barracuda, que mejora el rendimiento e incorpora novedades en Speed Dial y Opera Link, y por último Safari, que cualquier día nos sorprende, porque la release 5 hace meses que apareció, han puesto el listón muy alto.
El claro ganador de esta contienda hace tiempo que se sabe: el usuario. Cada vez podemos acceder a productos mejor diseñados, más estables y seguros. Así que estamos de enhorabuena, porque uno de los programas que más utilizamos, el navegador, se perfecciona sin parar y además es gratuito.

Fuente: http://www.genbeta.com/actualidad/chrome-tambien-cambia-su-logotipo

martes, 15 de marzo de 2011

Lightweight2: un navegador extremadamente minimalista con un nuevo concepto

Por ahí saltaban las noticias de que Google quería sacar la barra de direcciones para hacer más minimalista a Chromium y a Chrome… Pues siento decir que se les han adelantado. Un usuario, una vez más, ha plasmado su visión de un concepto bastante nuevo de un navegador web. Totalmente minimalista pero funcional a pesar de su muy corta edad (apenas un mes de vida), así podríamos calificar a Lightweight2.

Este maravilloso navegador web sacado de Qt-Apps.org (efectivamente, está hecho en Qt) es realmente prometedor por todo lo que he dicho antes. Es de esas pequeñas joyas que uno no explica por qué nadie le presta atención (cof cof falta de publicidad cof cof…). Aún falta mejorarlo y por supuesto, olvidaos de ciertas cosas que consideraríais evidentes. Todo apunta a que es un experimento de su autor, pero lo que ha hecho es notablemente magnífico.

Olvidaos de la barra de direcciones, con este navegador no os estorbará. Únicamente aparece al añadir una nueva pestaña o bien haciendo doble clic en una y marcando la opción “Editar URL”. Una vez introducida la dirección, la barra se ocultará automáticamente dejando paso a un excelente panorama web, ya que no nos estorba ni eso ni una barra de menús. Vomo veis, mínimo hasta la saciedad.
El truco de todo el navegador reside en sus “pestañas” y en los dobles clics. Al hacer doble clic en las pestañas, podemos editar la URL, añadir la página que estemos viendo a nuestros favoritos y mostrar la citada página o bien cerrarla. El mismo sistema para el botón “Nueva pestaña”: un clic para crear una nueva pestaña de navegación y dos para acceder a los marcadores. Y no sólo eso, ya que tanto los enlaces como la barra de carga se muestran como en Chromium/Chrome o Firefox 4, es decir, en la parte inferior izquierda de la pantalla, en una ventana flotante de diálogo. También todo se complementa con una serie de acortamientos y atajos de teclado si queremos todo más rápido. Simple pero sencillo, ¿verdad? :D

También incorpora una barra de búsquedas independiente que por el momento, sólo lleva los motores Google y WordPress, aunque se puede añadir más, por el momento añadiendo ciertos archivos a la carpeta de configuración del navegador en nuestro /home.
¿El motor? Creo que no lo especifica el autor, aunque a juzgar por la rapidez, la compatibilidad y algunas pruebas que he hecho, todo apunta a que es WebKit.
Para el resto de las opciones, sólo queda esperar. El autor ha visto que su concepto ha gustado a una serie de usuarios, y con razón quiere llevarlo adelante, y puedo decir que estado siguiéndole la pista desde que ha empezado y últimamente trabaja mucho en el proyecto, ya que está liberando bastante rápido versiones nuevas. Solamente digo que sobre finales de febrero estaba en la versión 0.1 y ahora en estos momentos ya está en la 1.3.

Instalarlo es sencillo. Hay que compilarlo, así que teniendo las dependencias necesarias y los paquetes para compilar, basta con abrir una terminal y navegar hasta la carpeta que obtendremos al descomprimir el paquete, y luego ejecutar las órdenes “qmake” y posteriormente “make“.
Todo un auténtico placer para quellos a los que como yo, les guste la sencillez, pasando de cosas como las extensiones, que para mí solamente entorpecen el navedor en todos los sentidos, haciendo que consuma más RAM y ayudándo a que éste sea más complicado y vulnerable en muchas ocasiones.
Deseo lo mejor para este proyecto, y estaré muy atento a sus posteriores lanzamientos para ir vislumbrando su maravilloso desarrollo, que seguro que nos sorprenderá a corto, medio, y largo plazo. ;)

::Descargar Lightweight2::

 

Fuente:http://ext4.wordpress.com/2011/03/15/lightweight2-un-navegador-extremadamente-minimalista-con-un-nuevo-concepto/

Ver videos bloqueados por país de youtube con ProxyTube [Chrome]


En algunos casos los videos de YouTube están bloqueados por país, esto es un problema porque nos podemos quedar sin ver un video porque estamos en un país donde ese contenido no se puede mostrar.
ProxyTube es una extensión para Chrome que nos permite ver videos con restricción geográfica. Lo único que tenemos que hacer es entrar en el video y pinchar en el botón de ProxyTube para que se cargue.

Fuente: http://140geek.com/ver-videos-bloqueados-por-pais-con-proxytube-chrome/4064/

GNU lanza el proyecto Free Call, un Skype libre

Libre como la libertad, pero sin costes”. Así comienza el décálogo que acaban de publicar Haakon Eriksen y David Sugar, los dos nombres que se encuentran detrás de esta increíble y revolucionaria iniciativa para usos de organizaciones de ámbito político o social. El proyecto Free Call de GNU en el que se tratará de desarrollar e implementar servicios seguros de comunicación auto-organizados alrededor del mundo para uso privado o bien para el ámbito de las administraciones públicas. ¿Cómo? Utilizando GNU SIP Witch, una implementación libre (licencia GPL) del protocolo SIP para crear redes de malla conforme al paradigma Peer-to-Peer (P2P), que sirvan de plataforma confiable de comunicaciones para hacer llamadas sobre Internet.

Qué es

Tal y como muestran en la página abierta hace unas horas, el objetivo con Free Call es conseguir un uso similar al de programas como Skype (multiplataforma) pero con grandes diferencias. A saber:
  • Sin necesidad de un proveedor de servicios centrales de registro
  • Sin necesidad de utilizar protocolos cuyo código fuente no está disponible (tal es el caso de Skype), con posibles puertas traseras impuestas por sus diseñadores
  • Sin tener puntos de control de red de cualquier tipo que puedan ser explotadas por agentes externos
  • Las redes de malla podrán eliminar posibles posibles puntos de control de servicios incluso si las redes están aisladas en situaciones de emergencia civil. Como sistema P2P que es, podrá tener fallos
Como ellos mismo indican, la construcción de un proyecto así puede tener grandes implicaciones tanto políticas como sociales, pensemos los usos que se le podrían dar. El sistema podría incluso ofrecer utilidad en el servicio público (como puede ser de carácter sanitario) al permitir la continuación de los servicios en situaciones de emergencia o de corte deliberado de las infraestructuras sin necesidad de comunicación existente.

Cómo

Los programadores los explica así:
El desarrollo de GNU Free Call inicialmente se extenderá en Sip Witch (servidor de llamada telefónica basada en SIP) para conocer los nodos del mismo nivel mediante el apoyo a hosts de caché para a continuación admitir la publicación de las rutas a los pares conectados. El trabajo se basa en el enrutamiento en Sip Witch por sí mismo. El uso de caches de acogida es un mecanismo utilizado en las redes P2P y se ajusta a los objetivos iniciales de creación de una red de malla auto organizada. Metodologías más avanzadas se pueden añadir más tarde…
El proyecto tratará de realizar un funcionamiento que “dialogue” como un servicio entre los usuarios de ordenadores domésticos SIP y las IP habilitadas para los smartphones (lo que permitirá a los usuarios manejar entre ordenador o teléfono a través de una interfaz gráfica). Además se ofrecerá proxy seguro VoIP lo que permitirá el desarrollo de los elementos clave de la infraestructura sin necesidad de crear nuevas aplicaciones de usuario SIP. El proyecto utilizará GNU Privacy Guard (GPC) para automatizar totalmente la validación de la sesión a través de la ampliación del protocolo SIP para el intercambio de claves públicas.
Desde aquí no podemos más que apoyar este tremendo proyecto del que esperamos más noticias pronto. Iniciativa que se une a otros proyectos libres similares en el uso de SIP . Hablamos de un servicio similar a Skype totalmente libre para todo el ámbito público bajo SIP. Si estas interesado en participar en el proyecto, desde la web se abren una wiki para telefonía así como un correo SIp Sip Witch. Además, para debatir sobre la arquitectura central, privacidad o temas sobre las consecuencias sociales, abren este otro correo.

Fuente:http://alt1040.com/2011/03/gnu-lanza-el-proyecto-free-call-un-skype-libre-sin-coste

Microsoft lanza Internet Explorer 9 para todo el mundo

microsoft internet explorer 9 beta twitter
Tras ver sus primeras imágenes el pasado mes de septiembre en un evento celebrado en San Francisco y recibir la versión RC hace pocas semanas, Microsoft ha lanzado la versión final de Internet Explorer 9 para todos los usuarios de Windows cumpliendo con la promesa de la fecha que estableció. La actualización a esta nueva versión es gratuita y por supuesto recomendada.
Ya hemos hablado largo y tendido de todas las características y novedades importantes que nos trae Internet Explorer 9 con sus versiones previas, pero se pueden resumir en una nueva interfaz mucho más simple que las infinitas barras de herramientas de las versiones anteriores y una nueva funcionalidad para que algunas funciones de aplicaciones web puedan integrarse directamente en la barra de inicio de Windows. Por supuesto, esta nueva versión respeta los estándares web y se promociona como una aplicación capaz de renderizar gráficos de alto rendimiento sin problemas.
Para poder usar Internet Explorer 9 necesitamos tener Windows Vista o Windows 7, un procesador a 1 GHz, 512 MB de memoria RAM y de 70 a 200 MB libres en nuestro disco duro. Si tenéis una versión anterior de Internet Explorer, actualizando a la última versión conseguís una versión completamente renovada del navegador y al mismo tiempo contribuís a que los nuevos estándares de la web se extiendan aún más.
Descarga | Internet Explorer 9

Fuente:http://www.genbeta.com/actualidad/microsoft-lanza-internet-explorer-9-para-todo-el-mundo

lunes, 14 de marzo de 2011

Internet aguantó el tsunami: Gráficas y datos tras el desastre

Una vez más, y ya van muchas en los últimos meses, Internet se tornó la principal fuente de información tras el terrible seísmo en Japón. Google, Twitter, Youtube o Facebook se mostraron como perfectas herramientas coordinadas que sirven para que organizaciones, gobiernos, familiares o los mismos damnificados, pudieran encontrar una voz. Tras el brutal movimiento de la tierra, las líneas telefónicas se cayeron, pero la red resistió como nunca. Resulta increíble que el quinto movimiento sísmico mas grande de la historia no haya podido tirar las redes, pero existe una razón por encima de cualquier otra, ocurrió en Japón. No hay ningún otro país en el mundo con una estructura de redes tan potente y sofisticada como el país nipón, de la misma forma que el triste recuento final de las víctimas podría haberse multiplicado de haber ocurrido en otro territorio del mundo, las conexiones demostraron estar a la altura de las circunstancias.

Gráfica de la red tras el terremoto

Fuera de ese dato, obvio por otra parte, que un terremoto de una magnitud de 8,9 tuviera un impacto limitado es una sorpresa para todos. La firma Renesys, encargada entre otros de realizar documentos fantásticos sobre la desconexión de Egipto o los acontecimientos de Libia, explica a través de varias gráficas el impacto menor que ha causado en la red la catástrofe. De los 6.000 prefijos de red que tiene Japón en la tabla global de direcciones, únicamente 100 fueron retirados temporalmente, la mayoría de webs se mantenían y se mantienen activas a la crisis post tsunami. Una muestra es el siguiente gráfico a través de Google Transparency. En el mismo, podemos observar como el tráfico de consultas a través del tiempo fue notable.

Uno de los motivos que se apunta para que la red aguantara deriva del cableado submarino de la región, la mayoría escaparon de los daños, además, hubo capacidad para “arrastrar” el tráfico de los puntos de daño. Otro dato, el tráfico en Japan Internet Exchange (cooperativa de las principales telecos japonesas) y situada en el corazón financiero, se redujo en 25 gigabits por segundo tras el terremoto para luego volver a subir a los niveles normales.
En el siguiente gráfico también podemos observar como el impacto tuvo sus mayores roturas en el sistema de cableado de Pacnet (una de las empresas de telecomunicaciones que han invertido con Google en la construcción del cable submarino entre Japón y Estados Unidos).

El siguiente gráfico de Renesys por ejemplo, nos indica el tráfico de cinco países asiáticos tras el terremoto. Aunque hubieron interrupciones en Filipinas justo en el momento en el que en Japón se inició la devastación, tiene más que ver con el enrutamiento común en los cables afectados. En cualquier caso, no son significativos en relación al número de redes existentes en estos países.

En comparación con el terremoto de Taiwan, es probable que los daños ocasionados persistan en las fibras, los repetidores o incluso que aparezcan nuevos problemas derivados. Aunque por encima de cualquier contratiempo una cosa es segura, Internet aguantó un terremoto devastador. Japón, en la vanguardia de la tecnología, también lo es en la construcción de la red más rápida y sólida del mundo. La construcción de una densa conectividad nacional e internacional hace de su red la más rica y global y, por supuesto, resistente.

Datos de las redes

La consecuencia de una red que casi no se alteró en su funcionamiento diario, fue una avalancha de información. Se cruzaba el tráfico de envío y recibo. Desde dentro del país nipón se informaba, desde fuera, las numerosas organizaciones, apoyadas por toda la fuerza de la logística de la red (con las redes sociales a la cabeza) comenzaba un dispositivo de operación sin igual. Estos son algunos de los más solicitados, la mayoría siguen en activo como no podía ser de otra forma:
  • Google
Una vez más, la compañía ofrecía su posición líder en el sector para apoyar/ayudar en lo que fuera. A su consabido buscador, Google abrió dos vías más: un buscador de personas y una actualización de la página Crisis Response, desde ahí, cualquiera puede ofrecer donaciones a diferentes organizaciones como Cruz Roja o Unicef. Google Maps también se convirtió en una herramienta terriblemente eficaz. A través de ella, muchos personas que se encontraban en Japón pudieron recorrer rutas alternativas tras el caos o refugios donde aislarse.
  • ONGs y organizaciones
Abrieron oficialmente páginas con fondos dirigidos a la catástrofe. Desde aquí podréis entrar en la página de Save the Children, desde esta otra, la Cruz Roja acepta donaciones.
  • Twitter
Como ya lo hiciera con los últimos acontecimientos en Egipto o Libia, la red de microblogging se convirtió en la principal fuente de información de las 2.0. En este caso, y para resumir la importancia, los hashtags #tsunami o #japan eran un hervidero de información. Otros como #prayforjapan, muy utilizado pero controvertido por su valor cuantitativo real fueron muy utilizados por los usuarios para enviar condolencias.
La red social también abrió por primera vez páginas oficiales dedicadas exclusivamente al desastre. EQTW, Tsunamiwatch o NewEartquake fueron algunas de ellas.
  • YouTube
Básicamente, el portal de vídeo fue la televisión de todos. En YouTube encontrábamos cada minuto un vídeo nuevo de alguna cadena o de algún damnificado que se encontraba en el centro del desastre. En este caso, los smartphones se convirtieron en las herramientas para hacer llegar las imágenes del desastre
Finalmente, el resto de redes sociales como Facebook, Ustream o la misma Mixi (la 2.0 más grande de Japón) fueron los medios más utilizados, la gran mayoría a través de las redes móviles. Curiosamente, la red se colapsó en cuestión de minutos tras el movimiento de la tierra, pero las líneas de datos mantenían el pulso y con ello la conectividad.

Fuente:http://alt1040.com/2011/03/internet-aguanto-el-tsunami-graficas-y-datos-tras-el-desastre

Mejorar rendimiento de Chrome/Chromium/Iron


logo-google-chromeEn Ubuntu Life, puedo ver este interesante truco para activar la aceleración gráfica en Chrome/chromiun/Iron.
Introduce about:flags en la barra de direcciones y activa:
  • GPU Accelerated Composting (ó Composición acelerada por GPU, en español), que:
Habilita hojas de estilo en cascada (CSS) 3D y una composición de mayor rendimiento de páginas web con el hardware de unidad de procesamiento gráfico (GPU).
  • GPU Accelerated Canvas 2D (Canvas 2D acelerado por GPU, en castellano), que: 
Habilita un mayor rendimiento de las etiquetas canvas con un contexto 2D mediante representación a través de un hardware de unidad de procesamiento gráfico (GPU).
  • Web Page Prerendering (Preprocesamiento de páginas web, en el idioma de Cervantes), que: 
Teóricamente, los preprocesadores completan páginas web en segundo plano para ofrecer una experiencia de navegación más rápida.

Fuente:http://putodeb.com/index.php?option=com_content&view=article&id=228:activar-la-aceleracion-grafica-en-chromechromiumiron&catid=63:trucos-de-software