sábado, 29 de enero de 2011

PirateBox, creando redes WiFi seguras y móviles para compartir contenido

PirateBox

Dicen que en épocas de necesidad es cuando la creatividad hace su aparición y surgen los más increíbles inventos e ideas. Si lo pensamos bien, en el tema de nuestra libertad para compartir contenidos, estamos en una época de necesidad, ya que tanto la Ley Sinde como la SGAE y sus homónimas en el resto de países están intentando coartar nuestra libertad para poder compartir lo que queramos. Quizás por esa necesidad, o quizás por una creatividad inusitada, ha nacido PirateBox.

¿Qué es PirateBox? Pues es un sistema libre y accesible a todo el mundo mediante el cual se pueden crear redes WiFi seguras y móviles enfocadas a compartir todo tipo de contenido. ¿Cómo? ¿Esto es real? Pues sí, un par de usuarios han ideado un sistema mediante el cual puedes llevar a cualquier sitio un dispositivo que, con una memoria externa, puede crear una red WiFi y compartir todo lo que tiene la memoria de una forma segura y efectiva.

Para poder construir tu propia PirateBox únicamente necesitarás unos pocos componentes cuyo precio no superan los cien dólares. A saber:

  • Un dock que permita compartir archivos mediante servidor web, como por ejemplo el Dockstar
  • Un router Wireless al que le puedas instalar el firmware DD-WRT. El Asus WL330GE Wireless podría ser una opción muy válida.
  • Una memoria externa cualquiera que sea USB para poder conectarla al dock
  • Una batería externa para poder alimentar el sistema y llevarlo a cualquier sitio. Esto es opcional, ya que se puede tener enchufado a la corriente eléctrica, aunque pierde la gracia de la movilidad.

Las instrucciones para crear la PirateBox están en esta página web (en inglés), y lo cierto es que son lo más sencillas del mundo. Si se siguen paso a paso se conseguirá tener un dispositivo que cree una red WiFi con un servidor web donde se pueden subir y descargar archivos en la memoria externa. Y lo más interesante de todo es que este dispositivo está registrado bajo la licencia Free Art, por lo que no se puede prohibir de ninguna manera al ser de dominio público.

Aquí tenéis un vídeo de su funcionamiento. Como veis es la cosa más sencilla y práctica del mundo:



Vía | boinboing
Más información | PirateBox

Las grandes celebridades sin maquillaje

El fotógrafo alemán Martin Schoeller logró lo que muchos famosos intentan evitar, ser fotografiados al natural, sin una gota de maquillaje, ni el uso del photoshop que oculten imperfecciones.

Según publicó el sitio español ABC, el fotógrafo expone hasta el 13 de febrero las imágenes en la Galería Nacional de Retratos de Camberra, Australia.
Aqui tienes las fotos de los artistas sin luces ni maquillajes.

Justin Timberlake y Barak Obama

John McCain y Iggy Pop

Cate Blanchett y Kavin Bacon


Adrian Brody y Judi Dench

Zinedine Zidane y Meryl Streep

Samuel Jackson y Cindy Sherman

Christopher Walken y Jack Nicholson

Angelina Jolie y George Clooney

Angelina Jolie y George Clooney



Fuente:http://www.planetacurioso.com/2011/01/29/las-grandes-celebridades-sin-maquillaje/

Microsoft quiere Atoms 16 cores para sus servidores (buscando menor gasto energetico)

La compañía de Redmond parece tener claro qué necesita para sus servidores y tanto es así que Microsoft ha comentado a Intel la inquietud sobre una posible evolución de la tecnología Atom. Microsoft quiere chips de 16 núcleos basados en esta tecnología que ofrece una gran relación entre potencia de proceso y consumo. Microsoft se siente tan atraído por ello que quiere sustituir los chips Xeon de sus servidores por unos nuevos Atom de 16 núcleos que cubren sus necesidades de proceso.

Microsoft ha pedido a Intel que desarrolle una versión de 16 núcleos de su chip de bajo consumo Atom para usarlo en sus servidores. Dicha petición forma parte del plan de Microsoft de recortar el consumo energético de sus masivos centros de datos.

Hay una gran oportunidad de mejorar la eficiencia energética de los servidores utilizando chips de bajo consumo como los Intel Atom o lo nuevos AMD Bobcat -Fusion-. Los centros de datos de Microsoft ofrecen servicios como Bing, Hotmail y Windows Live Messenger además de aplicaciones empresariales como Sharepoint y Exchange.

Fabricantes como Dell ya ofrecen servidores basados en procesadores de bajo consumo VIA Nano, aunque Microsoft ha mostrado su interés por la alianza con Intel y posiblemente con AMD, eligiendo la mejor propuesta de ambos.


Fuente:http://muycomputer.com/Actualidad/Noticias/Microsoft-quiere-Atoms-16-cores/_wE9ERk2XxDAzrDolprdAdx66ukkSyESUE8hrx3JK5TDaUrsZPnXeTSHO6a8uVXop

AppStream unificará Linux

distros1los principales responsables de Red Hat, Novell, Canonical, Debian y Mandriva han tenido una reunión y un principio de acuerdo para unificar los procesos de instalación de aplicaciones de sus respectivas distribuciones, con el fin de crear una sola, común para todos.

AppStream sería el resultado de poner los procesos de instalación de aplicaciones en común. Parece que al fin se han dado cuenta de que uno de los pilares más débiles de las distros GNU era su diversidad de formatos a la hora de añadir nuevos paquetes al sistema.

Es cierto que mediante los centros de software, instalar aplicaciones no puede ser más sencillo, pero el problema viene cuando el programa que queremos instalar no está en los repositorios de nuestra distro.

En muchos casos, los desarrolladores pueden crear versiones autoinstalables como los .deb, pero en otras muchas, no tienen tiempo ni recursos para hacer eso en cada una de las diferentes distros, con lo quesimplemente deja un paquete listo para compilar. Hacer esto no es tan complicado, pero requiere de una serie de pasos que un usuario corriente no suele estar preparado para dar, acostumbrado a la mecánica de siguiente, siguiente, finalizar.

La idea es crear un instalador común que sirva de base a los desarrolladores, para de ese modo, crear aplicaciones únicas que se puedan instalar en todas las distribuciones sin ningún problema.

Este ha sido uno de los puntos más discutidos por los usuarios en los últimos años, y pese a que ha habido proyectos enfocados a lograr un instalador común como HNOPKG, no ha sido tan popular como algunos deseábamos.

Quizá este cambio le de a Linux ese impulso que necesita para ser más amigable con el usuario y poder, definitivamente, ser aceptado como un sistema operativo más, desechando para siempre la leyenda urbana de que Linux es para expertos.


Fuente:http://putodeb.com/index.php?option=com_content&view=article&id=197:appstream-unificara-linux&catid=56:informacion&Itemid=209


Una noticia curiosa y que dara competitividad a linux en este duro mercado de los SO en el cual de forma libre va ganando mas y mas seguidores

Manos a la obra: migración de todas las compus de mi instituto a Debian Squeeze

Un ávido lector de nuestro blog, Juan Manuel Domínguez Retamozo, chaqueño de alma y linuxero de profesión, nos envió un breve relato sobre su experiencia al migrar todas las compus del instituto donde enseña (CECAL) a Debian Squeeze.

A esta gente realmente hay que hacerles un monumento. ¡Felicitaciones Juan Manuel por acercar el software libre cada vez a más gente! :)

Me pregunto: ¿pinta una nueva sección del blog en donde Uds., nuestros fieles y bienaventurados lectores, puedan publicar este tipo de experiencias vinculadas a la difusión del software libre? Bueno, dejo las puertas abiertas...

¡Hola a todos! Mi nombre es Juan Manuel Dominguez Retamozo y escribo este post para contarles a todos que este año migre todas las compus del instituto donde enseño a Debian Squeeze.

Aquí están las fotos que lo prueban:



Cualquier duda sobre cómo hice la migración o sobre el desempeño que van teniendo los aulumnos, no duden en escribirme.

Para las personas que vivan en Presidencia Roque Saenz Peña y quieran organizar reuniones y hablar sobre GNU/LINUX ya sea en alguna institución educativa o alguna otra, les ruego también se pongan en contacto así podemos organizar algunas charlas o juntadas.

Por último, quiero agradecer a los chicos que me me ayudaron: Filip, Lucas y Chapi, y al Intituto donde enseño por apostar por el Software Libre. Sin el apoyo de ellos no podría haber tenido lugar nada de todo esto.

Fuente:http://usemoslinux.blogspot.com/2011/01/manos-la-obra-migracion-de-todas-las.html

Sin duda una gran accion

La web de Fedora sufrió un ataque

La web oficial de Fedora, fedoraproject.org, fue atacada el pasado día 22. El atacante consiguió los datos de acceso de una cuenta de uno de los colaboradores del proyecto. Tras los primeros análisis, parece que el ataque no ha dañado los servidores ni a la distribución pero sí que logró modificar la clave SSH guardada en el sistema de cuentas de Fedora.

Jared Smith, líder del proyecto Fedora, afirmó que no creía que los paquetes de Fedora u otras cuentas de colaboradores hubieran sido afectadas y que no había evidencias de que el ataque hubiera comprometido nada más que una cuenta individual.

La brecha de seguridad se descubrió cuando el atacante cambió la mencionada clave SSH. El usuario original recibió el aviso automático que reportaba ese cambio. Acto seguido, se puso en contacto con el equipo de administradores y su cuenta fue cerrada para proceder a la inmediata auditoría con el objetivo de seguir los pasos del ataque, así como para comparar todos los archivos a los que había accedido el atacante con los originales.

Smith informó que, en cualquier caso, los servidores del proyecto Fedora no habían sido atacados sino que se habían sido comprometidos externamente. Aprovechó para recordar a todos los colaboradores la importancia de elegir contraseñas fuertes para evitar este tipo de riesgos.

Más info aquí.

Amazon vende ya más libros electrónicos que de papel: ¿a qué esperan las editoriales españolas?

libro-electronico-kindle.jpg

Que el libro electrónico va poco a poco ganando terreno es un hecho, quieran nuestras queridas editoriales verlo o no. Si hace unos meses ya comentábamos que Amazon estaba cerca de vender el doble de libros electrónicos que de papel y pasta dura, ahora sabemos que esa cifra ha llegado ya al triple y que incluso están vendiendo más e-books que libros de bolsillo o pasta blanda.

Estas cifras fueron anunciadas por Amazon en el día de ayer junto a sus resultados financieros que, aunque no superaron las expectativas de los inversores y de Wall Street, arrojan un aumento del 36% en las ventas con respecto al año pasado y los resultados más altos desde que la compañía fue fundada.

Mientras tanto en España seguimos esperando una plataforma de venta de libros electrónicos acorde a los tiempos en los que vivimos. Las editoriales siguen empeñadas en proponer modelos caducos (con DRM incluido, claro) y justificando sus (no) decisiones en el peligro de que los usuarios copien y distribuyan los libros de forma “ilegal”.

En el verano del 2009 fue publicado un artículo en Público en el que hacían un repaso al panorama del libro electrónico en España. En dicha pieza, y en uno de los últimos párrafos se afirmaba lo siguiente:

Uno de los temas de fondo que más preocupa a los editores españoles es la protección de los derechos de propiedad intelectual, para que no se repita la historia que ya ha sucedido en el ámbito musical con las discográficas y las descargas P2P. Este es uno de los frenos silenciosos a la expansión del libro electrónico.

Esta situación ya la hemos visto antes. Los grandes protectores de los derechos de autor se quejaban hace unos años que los formatos digitales suponían una amenaza para su industria. Tan grande era esta amenaza que apareció iTunes y de golpe se llevó gran parte del negocio.

Tarde o temprano veremos lo mismo en España y con el libro electrónico. Imagínense la situación: Amazon anunciado su expansión española y confirmando la llegada de la Kindle E-book Store a nuestro país. Al día siguiente todos los periódicos se levantarán con la misma noticia: las editoriales piden su pedazo del pastel. Ese pastel que nunca se molestaron en cocinar.

Vía | Nota de prensa de Amazon
En Genbeta | Amazon está cerca de vender el doble de libros electrónicos que de papel y pasta dura
Enlace | Público
Imagen | Kodomut

Google cambia su algoritmo para mejorar los resultados de sus búsquedas y favorecer las fuentes "originales"

google.jpg

Mucho se ha hablado en las últimas semanas sobre la calidad de los resultados de Google. Algunos argumentan que la calidad ha empeorado en los últimos años y que detrás de estos problemas está el no saber regular con cierta certeza el spam que prolifera en muchas búsquedas. Para combatir esto Google ha introducido una serie de cambios en su algoritmo para que en los resultados de sus búsquedas tengamos más posibilidades de ver el artículo de la fuente original que sus copias.

Esto es un problema que afecta a muchas publicaciones perjudicando su propia posición en los resultados de Google, ya que hay otras que se dedican que se dedican a copiar estos artículos, en algunas ocasiones íntegramente y otras con ligeros cambios que favorecen su posición a través de mecanismos relacionados con el SEO.

Aunque los cambios introducidos se cree que afectarán momentáneamente a sólo un 2% de las palabras que se utilizan en las búsquedas y a menos de la mitad de los resultados que se muestran normalmente, se supone que servirán para contrarrestar los efectos antes mencionados.

Pero no sólo se espera que afectará a esos, porque en todas las conversaciones que han aparecido en las últimas semanas sobre la problemática de los resultados de Google también ha estado metida Demand Media, una empresa que hace unos días empezó a cotizar en bolsa y cuyo dudoso negocio se basa en escribir artículos con palabras clave que favorecen su posición en los resultados de Google y que son publicados en páginas como eHow.com.

Sobre este tipo de empresas se ha discutido mucho, ofreciendo razones a favor y en contra de su existencia y de lo ético que pueda ser su modelo de negocio. Pero lo cierto es que muchos de artículos que se publican no ofrecen ningún valor al usuario y están rodeados de grandes cantidades de publicidad; cuando esta no ocupa la ventana entera.

Cuando éstos aparecen en posiciones elevadas de los resultados de búsqueda de Google los usuarios se ven perjudicados y resulta más difícil encontrar lo que realmente queremos. Estos cambios introducidos en el algoritmo se supone que intentarán solucionar estos problemas, aunque por ahora de forma limitada. De todas formas, ¿creéis vosotros que los resultados de Google han empeorado con el paso del tiempo?, ¿es ética la forma en la que otros se lucran a partir de contenidos originales o artículos SEO?


Fuente:http://www.genbeta.com/actualidad/google-cambia-su-algoritmo-para-mejorar-los-resultados-de-sus-busquedas-y-favorecer-las-fuentes-originales

Como son las personas segun las telcas que mas usan en el teclado

“Somos lo que tipeamos” o por lo menos ese es el resultado de este minucioso estudio científico-geek, que categoriza a los usuarios de acuerdo a las teclas más usadas del teclado, sin margen de error icon razz El Lado Geek de la Sociología del Teclado [HUMOR] :

tecladoestudiosociologi El Lado Geek de la Sociología del Teclado [HUMOR]


Fuente:http://www.ubuntips.com.ar/2011/01/29/el-lado-geek-de-la-sociologia-del-teclado-humor/

viernes, 28 de enero de 2011

Diferencias entre Chrome y Chromium

A menudo los usuarios de software libre y Open Source nos preguntamos por las diferencias reales entre el navegador Google Chrome y el proyecto Open Source en el que se basa, Chromium. Aunque los dos desarrollos pueden parecer idénticos a la hora de usarlos, en realidad hay sutiles diferencias entre ellos.

Precisamente un artículo del wiki oficial de Chromium se centra en explicar esas diferencias, así que si estáis interesados en saber qué es lo que distingue a Chrome de Chromium, aquí tenéis esas distinticiones:

Logo

Chrome: con colores

Chromium: tonalidades azules

Informes de fallos

Chrome: sí, si lo activamos

Chromium: Ninguno

Notas: Hay que incluir backtraces detallados en los informes de errores si no tenemos informe de errores.

Métricas de usuario

Chrome: Sí, si lo activamos

Chromium: No

Tags de audio y vídeo

Chrome: H.264 (bueno, ya no), AAC, MP3, VP8, WebM, Vorbis y Theora

Chromium: VP8, WebM, Vorbis y Theora

Notas: varía según la distribución. Chromium en Ubuntu tiene las dos versiones, y Fedora Chromium no tiene soporte para tags de audio y vídeo

Adobe Flash

Chrome: Plugin personalizado (no libre) incluido en la versión

Chromium: Soporte para plugins NPAPI, incluyendo el de Adobe

Soporte PDF

Chrome: Plugin personalizado (no libre) incluido en la versión

Chromium: Descarga los documentos y los muestra con el visor PDF del sistema

Notas: El plugin PDF de Chrome usa código no libre de terceras partes. No hay plugin PDF del software libre que soporte todas las características PDF que quieren en Chromium (como rellenar formularios).

Código

Chrome: analizado por desarrolladores

Chromium: modificado por las distribuciones

Notas: Las modificaciones de las distribuciones han sido una continua fuente de problemas para los usuarios. Por favor, incluye la información sobre tu distribución si informas de errores.

Sandbox

Chrome: siempre activa

Chromium: puede estar deshabilitada según la distribución

Notas: En Ubuntu y Gentoo está siempre activa. Algunos paquetes no oficiales para Slackware la deshabilitan, cuidado.

Paquetes

Chrome: un único paquete DEB/RPM

Chromium: específico de cada distribución, a veces dividido en varias partes (datos locales, inspector, v8)

Notas: En Ubuntu se distribuyen l10n y el inspector (opcional), además de 2 conjuntos de códecs (1 obligatorio) para las compilaciones nocturnas, el canal de desarrolladores y el canal beta, pero con los mismos nombres de paquete en cada canal.

Perfil

Chrome: se mantiene en ~/.config/google-chrome

Chromium: se mantiene en ~/.config/chromium

Caché

Chrome: se mantiene en ~/.cache/google-chrome

Chromium: se mantiene en ~/.cache/chromium

Garantía de calidad

Chrome: las nuevas versiones se prueban antes de ser enviadas a los usuarios

Chromium: algunas compilaciones nocturnas se distribuyen sin ser probadas

Notas: depende de la distribución. Por ejemplo, Chromium en Ubuntu registra los mismos números de versión que Google Chrome, pero otras distribuciones a veces distribuyen compilaciones nocturnas inestables.

OpenLeaks, la versión “abierta” de Wikileaks, en marcha y sin restricciones

Los escándalos que han surgido de la ya famosa Wikileaks -que utiliza tecnologías Open Source- siguen multiplicándose tras las filtraciones que comunican sus responsables en todos los niveles de la política y la sociedad mundial, pero ahora les ha salido un competidor que adopta algunos de la filosofía Open Source.

Se trata de OpenLeaks, que como indican en la página oficial:

“Es un proyecto que está orientado a hacer que la denuncia de irregularidades se pueda realizar de forma más amplia y segura. Esto podrá hacerse al ofrecer servicios dedicados y normalmente gratuitos para aquellas personas y organizaciones que quieran denunciar irregularidades y apoyar la transparencia de la información.”

En realidad OpenLeaks no revelará información por sí misma, sino que se quiere convertir en la plataforma desde la cual revelar esa información. La idea es proporcionar esa plataforma segura para quienes quieran divulgar información sensible y que puede tener cierto impacto en su “seguridad personal”:

Habrá que estar atento los próximos meses para ver si este servicio acaba convirtiéndose en una alternativa real a la hoy todopoderosa Wikileaks.


Fuente:http://www.muylinux.com/2011/01/28/openleaks-la-version-abierta-de-wikileaks-en-marcha/

AppStream, un principio de unificacion en Linux

keras nos cuenta: «Hace unos días se celebró en Alemania una reunión con representación de casi todas las principales distribuciones Linux en la que se planteaban cómo afrontar uno de los problemas que tienen los desarrolladores para hacer aplicaciones para este sistema operativo: la diversificación. Y es por eso que representantes de OpenSuse, Fedora, Ubuntu, Mageia y Debian se han reunido en Nuremberg en lo que han llamado la AppInstall 2011 para dar un paso adelante y crear AppStream, pero la idea es tener una herramienta común en todas las distribuciones y que permita a los usuarios instalar el programa sin dolores de cabeza.»

Fuente:Barrapunto

Actualizar/Instalar paquetes en un pc sin internet,con la ayuda de otro pc con internet

Si queremos actualizar/instalar paquetes en un pc sin internet, podemos hacerlo con la ayuda de otro pc en el que tengamos instalada la misma distro y en el que si que tengamos internet: Al menos hay estos tres métodos:

Opción 1:
1- En el ordenador sin internet: Para instalar programas en Ubuntu cuando no tenemos conexión a Internet deberemos proceder como siempre: buscar en Synaptic los programas que nos interesan y aceptar las dependencias.
Una vez que hemos seleccionado los programas que queremos instalar, en lugar de pulsar el botón Aplicar buscaremos en el menú Archivo la siguiente opción: Archivo-Generar un script de descargas de paquetes y guardaremos el fichero.sh (script de bash) que genera en algún pendrive.


2-En el pc con internet: ejecutaremos el fichero.sh Automáticamente se guardaran en el mismo directorio del pendrive donde se encuentra el script todos los ficheros .deb que nos hacen falta para instalar los programas.

3- De nuevo en el pc sin internet: con la siguiente opción de Synaptic: Archivo-Añadir paquetes descargados, seleccionamos el directorio del pendrive donde se encuentran los archivos .deb que hemos bajado de Internet. El sistema instalará automáticamente todos los .deb que encuentre en el directorio y nuestro equipo quedará listo para poder usar dichos programas.

Opcion 2:
Usar aptoncd: http://hatteras.wordpress.com/2009/01/24/aptoncd-crear-un-repositorio-de-software-en-cddvd/
Descripcion y usos de AptOnCd:
Esta herramienta ( se instala desde synaptic, ya que está en los repositorios ) tiene varios usos:
1-permite crear un CD/DVD para instalar software con synaptic en un pc no conectado a internet.
2-se puede usar para actualizar e instalar los mismos paquetes de software en varios pcs sin necesidad de volver a bajar los paquetes de nuevo: es decir permite crear una copia de seguridad en cd/dvd de los paquetes .deb bajados e instalados en tu pc, para usarlos en varios pcs.
3-permite volver a instalar los paquetes.deb cuando quieras, por ejemplo tras una actualización o reinstalación del sistema. Con AptOnCD se crea un cd/dvd que luego puede ser usado por synaptic como fuente de repositorios.

Una herramienta que facilita mucho la salvaguarda de los paquetes.deb más interesantes para instalarlos en otros pcs que no dispongan de Internet. El hecho de que se pueda borrar fácilmente la caché de apt y que se puedan descargar paquetes sin instalarlos (junto con sus despendencias) hace que la utilidad de esta aplicación sea aún mayor.

Opción 3:
Usar una copia de todo Synaptic: http://hatteras.wordpress.com/2010/11/08/copia-de-seguridad-de-synaptic/
Para copiar todo Synaptic, el comando es: sudo tar zcvf apt-synaptic.tgz /etc/apt/ /var/lib/apt/ /var/cache/apt/ con el que se creará en la carpeta de usuario un archivo apt-synaptic.tgz con todo lo anterior.

– En mi portátil (con internet) , con el sistema actualizado, y todos los paquetes que quiero tener también en el pc de sobremesa, ejecute en la terminal: sudo tar zcvf apt-synaptic.tgz /etc/apt/ /var/lib/apt/ /var/cache/apt/

– En el pc sin internet: me lleve dicho archivo apt-synaptic.tgz a un pc de escritorio, con la misma distro que en el pc portátil, pero en el que no tengo internet, y en él descomprimí el contenido ( lo hice en el Nautilus con permisos de root -sudo nautilus - y descomprimiendo el contenido del archivo apt-synaptic.tgz en el directorio raiz / ) , et voila…tengo los mismos archivos .deb, el mismo /etc/apt/sources.list , la misma lista de paquetes instalados, y las mismas claves de orígenes de software, en el pc portátil que en el de sobremesa, con lo que fácilmente puedo: a) instalar en éste último todos los mismos programas que tengo en el portátil : En Synaptic -> Estado -> selecciono todos los paquetes instalados ( de la secciones “instalado manualmente”, “instalados”, “instalados actualizables”, “instalables locales u obsoletos” , y doy a reinstalar ; o b) puedo elegir manualmente solo los programas/paquetes .deb que quiera instalar, y reinstalarlos en el pc de sobremesa.

En ambos casos, al reinstalar los paquetes. deb , lo que sucede es que se instalan los paquetes.deb a partir de los que hay en el directorio /var/cache/apt/archives que previamente se han obtenido a partir del archivo apt-synaptic.tgz

——————————————

14 dias de plazo para devolver articulos comprados en la red

devoluciones de compras en internetLa Unión Europea ha fijado en 14 los días como plazo para devoluciones de compras superiores a 60 euros realizadas a través de Internet.

Es el doble de lo establecido actualmente en España.

Los comerciantes tienen la obligación de informar a los clientes sobre las características del producto, coste del envío e impuestos. Para los costes adicionales sobre los que no fue informado, el cliente no estará obligado a pagarlos.

Podrá devolver el producto y exigir el dinero abonado si llega tarde o con desperfectos y para quienes esten insatisfechos con el producto podrán devolverlo pagando los gastos de envío, como decimos en 14 días desde su recepción.

También será aplicable a los servicios aunque éstos ya comenzaran, restando la parte ya disfrutada. Otro punto importante es para la prohibición de casillas marcadas automáticamente.

El texto fue propuesto por la Comisión Europea ya en 2008 y aún tiene que ser pasar por la Eurocámara. | Fuentes

Como convertirse en desarrollador de ubuntu?



Mucha de la gente que tiene Ubuntu, estaría interesada en desarrollar para ésta distribución pero no sabe los pasos a seguir.


Emmet Hikory, ha escrito una guia para llegar a convertirse en un desarrollador de Ubuntu.


El primer paso sería convertirse en miembro de Ubuntu y empezar a trabajar en el área en el que esté interesado.


Una vez preparada una aplicación o proyecto, se presentará a la Junta de Desarrolladores de Ubuntu, que si vale la pena le darán el visto bueno.


La guia de Hikory es extensa y está en ingles, pero si quieres desarrollar para Ubuntu, vale la pena leerla.


Fuente: Phoronix

Google inicia censura en al red por imposicion

google-busca-en otro-sitio

Google anunció a finales de 2010 que tomaría algunas medidas para dificultar la localización de sitios de descargas ilegales desde su buscador. En aquel comunicado hacía referencia a que la censura estaría vinculada a un filtro en el algoritmo de autocompletado para que determinadas palabras no dieran resultados positivos de búsqueda.

El filtro, que ya está funcionando, se basa en una serie de palabras censuradas. Si buscas términos como Rapidshare, Megaupload o combinaciones de “torrent“, podrás comprobar que el sistema de autocompletado no arroja resultados. Sin embargo, Hotfile, 4shared o Megavideo, sí los producen. Aquí falla algo, porque ni son todos los que están, ni están todos los que son. Palabras como uTorrent o Bittorrent están censuradas cuando ambos programas sirven para descargar contenidos legales, como distribuciones de Linux por ejemplo y Hotfile no hace falta que te explique lo que és.

La medida es un tanto simbólica ya que si bien el autocompletado no arroja resultados sobre las palabras censuradas, si la escribes completa en la caja de texto, el buscador las localiza. ¿Un gesto para la galería? ¿El inicio de una política contra la piratería de mayor calado? El tiempo lo dirá, aunque han de hacerlo bien. No hay mayor injusticia que condenar a un inocente.

Vía | Xataka On
Fotografía | Mílton Jung

OpenOffice 3.3 recien salido del horno tras al salida de LibreOffice

OpenOffice 3.3
Si hace poco más de dos días comentábamos la llegada de la versión definitiva de LibreOffice, ayer se lanzó la versión estable de OpenOffice 3.3 que parece no quiere perder comba en cuestión de desarrollo con su ahora competidora más directa. Tampoco es de extrañar puesto que los ciclos de desarrollo, las betas lanzadas, etc. iban de la mano.

Y es que al fin y al cabo el fork de LibreOffice partía del mismo punto de desarrollo que OpenOffice y todavía no ha pasado el suficiente tiempo como para que ambos programas se diferencien el uno del otro de forma sustancial. Es a partir de ahora cuando en las futuras versiones 3.4 podremos ver hacia que lado caminan cada una de ellas. Puesto que algunas de las novedades están implementadas en las dos versiones, puesto que ambas ya estaban trabajando en ellas en el momento de la separación.

Entre las principales novedades de la versión de OpenOffice 3.3 podemos citar las siguientes:
  • Mejoras en la protección de documentos de Write y Calc, que ahora implementa un nivel más de protección. Además de la protección de acceso que hasta ahora era posible también se podrá tener una opción que permita ver, pero no editar ni cambiar el documento.
  • Mejoras en la pantalla de opciones de impresión que ha sido rediseñada para que sea más fácil e intuitiva para los usuarios.
  • Se mejora el soporte para gráficos en Calc y para las etiquetas de los datos que van asociados a los mismos.
  • Por lo que respecta a Calc, se mejora el soporte al número de filas permitidas que aumenta a más de un millón o se colorean las pestañas de cada página del documento para que sea más fácil distinguirlas.
  • En Impress será más fácil añadir texto a las diapositivas y se hace más sencillo el manejo de las mismas.

Estas son sólo algunas de las mejoras. En general, para la mayoría de los usuarios no avanzados casi pasarán desapercibidas más allá del rediseño de la pantalla de opciones de impresión, por ejemplo. Es a partir de ahora cuando tenemos que comprobar si la apuesta de Oracle por este producto es fuerte y convencida o lo mantendrá sin grandes novedades.

Por los planes de la empresa en su búsqueda de usuarios en la nube con Oracle Cloud Office no parece que su intención sea olvidarse de OpenOffice, sino más bien utilizarlo como base para proyectos donde pueda sacar algún beneficio del mismo. Veremos cual es el siguiente paso en este sentido.

Más Información | OpenOffice
En Genbeta | Disponible oficialmente OpenOffice 3.2

miércoles, 26 de enero de 2011

Auditoria de seguridad con Nmap, detectar un intruso en tu red wiffi

Si alguna vez sospechas que tienes algún intruso dentro de tu red puedes comprobarlo con Nmap. Nmap monitorea tu red en busca de las maquinas conectadas, mira los puertos abiertos, identifica sistemas operativos, etc...
---------------------------------------------------------------------------------------------------------------------------------------------------------------------

Últimamente he trasteando un poco con las redes wireless y aunque ya habia leido sobre el tema he comprobado lo vulnerables que son. Una clave wep de una red con tráfico se consigue como mucho en 20 minutos, las wpa y wpa2 cuestan más pero dicen que también se consiguen. Asi que si tienes un router wireless toma medidas contra posibles intrusos. Usa cifrado wpa2, haz un filtrado mac, oculta tu essid, y si es una zona con mucho tráfico cambia la clave como mucho cada 2 semanas.
En una de las redes que administro el 90% de las maquinas se conectan por wifi, por lo que regularmente tengo que monitorearla en busca de intrusos. Uso Nmap, que me proporciona mucha información.

INSTALAMOS SOFTWARE NECESARIO

Nmap se puede instalar en todos los linux que cocnozco, en Debian Squeeze lo tenemos disponible en los repositorios de software. Yo lo instalo en una consola de admistrador con apt :
# apt-get install nmap

DETECTAMOS SI HAY INTRUSOS

Ahora mismo tengo todos los PCs de mi red desconectados excepto este que es desde el que voy a monitorear. Así que en mi red solo deberia de ver dos maquinas, el router y este Debian.
La red que voy a monitorear es la "192.168.66.0". He configurado en el router el wifi sin cifrado hace un rato y voy a ver si alguien se ha conectado a mi red.

# nmap 192.168.66.1-255

Starting Nmap 5.00 ( http://nmap.org ) at 2010-12-17 21:00 CET
Interesting ports on 192.168.66.1:
..................
..................

Interesting ports on 192.168.66.110:
Not shown: 997 filtered ports
PORT STATE SERVICE
139/tcp open netbios-ssn
445/tcp open microsoft-ds
2869/tcp closed unknown
MAC Address: 00:3C:6D:D2:B4:6A (Unknown)

Interesting ports on 192.168.66.169:
..................
..................

Nmap done: 255 IP addresses (3 hosts up) scanned in 11.90 seconds

Acabamos de detectar que además del router con la @ip 192.168.66.1 y mi Debian con la @ip 192.168.66.169 tenemos dentro de nuestra red alguien conectado. Este intruso esta conectado con la @ip 192.168.66.110, la MAC de su targeta wireless es "00:3C:6D:D2:B4:6A", tiene dos puertos abiertos y vemos los servicios que usa cada puerto.

CONOCER MAS DATOS DEL INTRUSO

Si quieres saber más datos sobre el intruso con @ip 192.168.66.110 como por ejemplo el sistema operativo puedes añadir la opción "-A", y para que sea más rapido "-T4". Aún con esta opción tarda un poco más que antes porque tiene que recoger muchos más datos :

# nmap -A -T4 192.168.66.110

Starting Nmap 5.00 ( http://nmap.org ) at 2010-12-17 21:12 CET
Interesting ports on 192.168.66.110:
Not shown: 997 filtered ports
PORT STATE SERVICE VERSION
139/tcp open netbios-ssn
445/tcp open microsoft-ds Microsoft Windows XP microsoft-ds
2869/tcp closed unknown
MAC Address: 00:3C:6D:D2:B4:6A (Unknown)
Device type: general purpose
Running (JUST GUESSING) : Microsoft Windows XP|2000|2003 (95%)
Aggressive OS guesses: Microsoft Windows XP SP2 (95%), Microsoft Windows XP SP2 or SP3 (95%),
Microsoft Windows XP SP2 (firewall disabled) (92%), Microsoft Windows XP SP3 (92%), Microsoft
Windows 2000 SP4 or Windows XP SP2 or SP3 (91%), Microsoft Windows 2003 Small Business
Server (91%), Microsoft Windows XP Professional SP2 (91%), Microsoft Windows Server 2003 SP1or
SP2 (89%), Microsoft Windows XP (89%), Microsoft Windows XP Professional SP2 (firewall enabled)
(88%)
No exact OS matches for host (test conditions non-ideal).
Network Distance: 1 hop
Service Info: OS: Windows

Host script results:
|_ nbstat: NetBIOS name: WINEVA, NetBIOS user: , NetBIOS MAC: 00:3C:6D:D2:B4:6A
| smb-os-discovery: Windows XP
| LAN Manager: Windows 2000 LAN Manager
| Name: WORKGROUP\WINEVA
|_ System time: 2010-12-17 21:13:31 UTC+1

OS and Service detection performed. Please report any incorrect results at http://nmap.org/submit/ .
Nmap done: 1 IP address (1 host up) scanned in 62.12 seconds

Pues ya sabemos que tenemos un intruso que usa Windows Xp y como podeis ver muchisimos más datos. Como en mi caso he dejado mi wifi de libre acceso realmente no era un intruso real, simplemente vuelvo a configurarla con cifrado wpa2, filtrado MAC y mi essid oculta, y este supuesto intruso dejará de estar conectado a mi red. Pero si tienes un intruso de verdad en tu red inmediatamente cambia la contraseña, refuerza las medidas de seguridad en tu router, y monitorea regularmente con nmap las maquinas conectadas a tu red.

Si quieres saber más sobre Nmap aquí tienes la guia de referencia en castellano.

Cortar y unir archivos por consola sin instalar programas en debian, linux general

------------------------------------------------------------------------------------------------------
Hace poco me he encontrado con un problema ya que necesitaba enviar un video a un amigo que vive a cientos de kilometros de mi domicilio y la unica forma que tengo de hacerselo llegar es por email. El video es más grande de lo que le permite recibir su proveedor de correo electronico, por lo que me es imposible enviarselo. Como la persona a la que se lo quiero enviar también usa Linux voy a dividirlo en varias partes para enviarselas en diferentes emails y que una vez recibidos el pueda unirlos. El limite de envio son 10 Mb y el archivo tiene aproximadamente 13. Lo voy a cortar en dos trozos, el mayor de 7 Mb y el otro del resto que son unos 6 Mb. Así le puedo enviar dos emails con un trozo en cada email y mi amigo cuando los reciba unirlos en su Linux.
En Debian y en todos los Linux que he probado para partir en trozos un archivo se utiliza el comando "split", y "cat" para volver a unirlo posteriormente. En Debian no es necesario instalar nada ya que se instalan con el sistema.
------------------------------------------------------------------------------------------------------


PARA DIVIDIRLO

Primero tenemos que saber cuantos bytes son 7 megabytes ya que a "split" hay que indicarle el tamaño maximo de las partes del archivo en bytes. Como 1024 bytes son 1 kilobyte, 1024 kilobytes son 1 megabyte y queremos saber cuantos bytes son 7 megabytes, multiplicamos 1024x1024x7 que son 7340032 bytes.
El archivo que le quiero enviar es un video llamado "para_aprender.avi" y que los trozos de archivo tengan como nombre base "para_aprender.". Digo como nombre base porque slit al dividir añade unas letras a cada trozo para que no tengan el mismo nombre.

1. En una consola de usuario vamos al directorio que contenga el archivo a dividir. Yo lo tengo en un directorio llamado video en el directorio personal de mi usuario :
$ cd $HOME/video
o
$ cd /home/exbian/video

2. Comprobamos que el archivo que queremos dividir se encuentra en el directorio actual :
$ ls
para_aprender.avi

3. Dividimos el archivo e indicamos a split que el nombre base de las partes sea "para_aprender." :
$ split -b 7340032 para_aprender.avi para_aprender.

4. Comprobamos que se ha dividido :
$ ls
para_aprender.avi
para_aprender.aa
para_aprender.ab

Podemos ver las dos partes "para_aprender.aa" y "para_aprender.ab".

5. Comprobamos que el tamaño de las dos partes divididas se aproxima a lo que habiamos calculado. Voy a usar el comando "du" :
$ du -h para_aprender.aa para_aprender.ab
7,1M para_aprender.aa
6,2M para_aprender.ab

6. Enviamos "para_aprender.aa" en un email y "para_aprender.ab" en otro.


PARA UNIRLO

Cuando mi amigo lo reciba guardará los dos adjuntos ("para_aprender.aa" y "para_aprender.ab") en un directorio.

1. En una consola de usuario va al directorio donde los ha guardado :
$ cd /directorio/donde/ha/guardado

2. Comprueba que teniene los archivos a unir :
$ ls
para_aprender.aa
para_aprender.ab

3. Unimos los archivos y como resultado creamos el archivo original.
$ cat para_aprender.* > para_aprender.avi

Ahora mi amigo puede ver el video "para_aprender.avi" con el reprodcutor de video de su Linux.


------------------------------------------------------------------------------------------------------
Aparte de para poder enviar archivos grandes divididos por email, también puede servir para dividir cualquier archivo que necesites dividir por problemas de espacio en los medios de los que dispongas para transportar datos y unirlo una vez llevado a su destino. Supongo que funciona con cualquier formato de archivo. Yo he probado con imagenes iso, archivos de audio y video, archivos comprimidos, imagenes, archivos pdf... ...y nunca me ha fallado.

Fuente:http://experienciasdebian.blogspot.com/2010/12/cortar-y-unir-archivos-en-linux-con.html

Sin duda una forma ideal de hacerlo sin necesidad de instalar ningun programa y desde donde mas nos gusta, es decir, en linux con la consola

Hacer que linux debian reconozca mas de 4GB de ram en 32bit

-------------------------------------------------------------------------------------------------------
Hace un tiempo que administro varios PCs algunos con procesadores de 32 y otros de 64 bits. En los de 64 bits no tengo problema con la cantidad de memoria ram instalada, ya que los kernels amd64 pueden usar hasta 64 GB. Pero en los PCs con procesadores de 32 bits, los kernels de 32 bits genéricos solo pueden usar hasta 3 GB. En los PCs con procesador de 32 bits que tengan instalados 4 o más GB de ram, para poder usar más de 3 GB tenemos que instalar un kernel especial apodado "bigmem" que reconoce de 4 a 64 GB. A dia de hoy en Debian Lenny se instala la versión 2.6.26 y en Debian Squeeze se instala la 2.6.32.
-------------------------------------------------------------------------------------------------------


1. Instalamos el kernel bigmem, en una consola de administrador :

# apt-get install linux-image-686-bigmem


2. Reiniciamos :

# reboot


3. Cuando reinicie, en el grub, si no esta por defecto elegimos el kernel bigmem. En mi caso tengo Squeeze, si tienes Lenny tu versión será la 2.6.26.



4. Ya dentro de tu usuario abre una consola y comprueba que la memoria ram reconocida es la misma que tienes instalada fisicamente en tu PC :

$ top

Fijaté en la esquina superior izquierda, el comienzo de la cuarta linea.


En mi caso me reconoce los 4 Gb que tengo instalados en este PC.

Fuente:http://experienciasdebian.blogspot.com/2010/12/como-debian-de-32-bits-reconoce-4-o-mas.html

Bloquear ordenador con Google Chrome

Lock Chrome es una extensión que nos permite bloquear el equipo a través de Chrome. Tiene un funcionamiento un poco raro, pero al bloquearlo se bloquea el navegador y todo el equipo, la única que nos queda es matar el proceso :P

Por ahí es útil para cuando no queremos que alguien toque la computadora o no queremos que alguien la apague.

Enlace: Lock Chrome

Fuente:http://140geek.com/como-bloquear-la-computadora-a-traves-de-chrome/3395/

Ley sinde vuelve al ataque mas fuerte que nunca y apoyada por los mandatarios

La conocida como Ley Sinde ha vuelto a la carga.

Tras un fin de semana de mucho movimiento en redes sociales como Twitter, donde se comentaban propuestas alternativas, saltaban rumores de un posible acuerdo entre los dos grandes partidos (PP y PSOE), el lunes a última hora de la tarde finalmente se hizo público y oficial: El PP y el PSOE habían llegado a un acuerdo en el Senado, con la aprobación de una enmienda conjunta… De nuevo, la Ley Sinde vuelve a la carga, y parece que ya no hay quien la frene.

Pero… ¿Qué viene a establecer la Ley Sinde?

Para empezar, la denominada Ley Sinde, se aprobará como la Disposición Final Segunda de la Ley de Económica Sostenible. Practica ésta a mi entender nefasta. Tendencia habitual del legislador de denominar inadecuadamente las Leyes. Las esconde bajo rótulos, títulos e indicadores que nada tienen que ver con el ámbito objeto de regulación. Lo que el Primer Presidente del Tribunal Supremo tras la Transición, el eminente jurista, Excmo. Don Federico Carlos Sainz de Robles llamó “el juego del escondite”.

Como comentábamos anteriormente, la citada Ley, viene a modificar distintas normas pre-existentes, con un objetivo común; la protección de la propiedad intelectual en el ámbito de la sociedad de la información y el comercio electrónico. En concreto las normas modificadas son:
  • La Ley 34/2002, de 11 de julio, de Servicios de la Sociedad de la Información y el Comercio Electrónico. Por cierto modificada en solo 8 años hasta en 4 ocasiones, dentro de ese juego del escondite del legislador: Ley de Medidas de Impulso de la Sociedad de la Información, Ley General de Telecomunicaciones, Ley de Firma Electrónica, Ley de Conservación de Datos relativos a comunicaciones electrónicas.
  • El Real Decreto Legislativo 1/1996 de 12 de abril, por el que se aprueba el Texto Refundido de la Ley de Propiedad Intelectual.
  • Ley 29/1998, de 13 de julio, reguladora de la Jurisdicción Contencioso-Administrativa.
Las principales conclusiones de las normas a modificar son:
  • Todas estas modificaciones tienen un objetivo común, la protección de los derechos de propiedad intelectual, pero, en contra de lo que se lee y escucha, que sólo afectaría a páginas de enlaces y descargas, esta normativa afectará a todo soporte, webs y portales que alojen contenidos protegidos por derechos de propiedad intelectual, como: blogs, textos, fotografías, imágenes, música, etc.
  • Uno de los aspectos más criticados de esta Ley es la creación de la Comisión para la Protección de la Propiedad Intelectual, Comisión que estará formada por personal de los principales Ministerios Públicos como: Cultura, Industria, Turismo y Comercio, Ministerio de Presidencia, etc. Esta Comisión, es la que inicia el procedimiento y resuelve.
  • Intervención Judicial: Aunque en el Acuerdo alcanzado anoche entre PP y PSOE se habla de una doble intervención judicial no es del todo cierto, en cuanto que la Sala de lo Contencioso Administrativo de la Audiencia Nacional (órgano competente) no entrará en ningún caso sobre el fondo del asunto, resolviendo sólo sobre los siguientes aspectos:
    • Autorizar el requerimiento a los prestadores de servicios de la sociedad de la información para la cesión de datos de identificación de los titulares de las páginas.
    • La ejecución de las medidas para que se interrumpa la prestación de servicios de la sociedad de la información o para que se retiren contenidos que vulneren la propiedad intelectual
  • Plazos establecidos: Los plazos establecidos para la tramitación y ejecución de los procedimientos establecidos son tan reducidos que hacen difícil su cumplimiento:
    • 48 horas para la retirada voluntaria de contenidos por parte de los titulares de las páginas a petición de la Comisión de Propiedad Intelectual.
    • 2 días para la práctica de prueba.
    • 5 días para trasladar a los interesados las conclusiones del procedimiento.

    Estos plazos tan sumarios me generan una serie de dudas razonables, entre ellas, la propia aplicación de la legalidad y que ésta no se convierta en mera apariencia.

    Dando solo dos días para la práctica de la prueba, pueda ocasionar situaciones de clara indefensión. La regla general establece, que el plazo para la práctica de la prueba nunca puede ser inferior a 10 días y en este caso concreto, por intereses que desconocemos, se ha reducido a dos.

    En cuanto a la intervención judicial:
    • 24 horas, previa audiencia del Ministerio Fiscal, para que el Juzgado dicte resolución autorizando la solicitud de datos.
    • Plazo improrrogable de 2 días siguientes a la recepción de la notificación de la resolución de la Comisión y poniendo de manifiesto el expediente, el Juzgado convocará el representante legal de la Administración, al Ministerio Fiscal y a los titulares de los derechos y libertades afectados. Resolverá mediante auto.
    Plazos estos equiparables a los delitos de violencia de género o delitos contra la seguridad en el tráfico, no siendo conductas éstas a mí entender de la importancia o gravedad de las anteriores.
La Ley Sinde aún no ha sido aprobada formalmente ni ha entrado en vigor, pero habiendo superado el trámite de su aprobación por el Senado, con el acuerdo de los dos principales partidos, hace suponer, que en un espacio corto de tiempo entrará en vigor y se empezará a aplicar, y será en ese momento, donde los verdaderos problemas de esta Ley saldrán a la luz, y se demostrará al fin si esta “chapuza” sirve para la finalidad para la que fue creada.

Fuente:http://www.securitybydefault.com/2011/01/vueltas-con-la-ley-sinde.html

Facebook provoca en USA 1 de cada 5 divorcios

Un nuevo informe de la Academia Americana de Abogados Matrimonialistas viene a señalar a las infidelidades a través de las redes sociales como la principal causa de divorcio en Estados Unidos.

Entre todas las redes, Facebook se lleva la palma, y es citada entre las causas de divorcio en uno de cada cinco casos.

El 66% de los abogados matrimonialistas del estudio señalaron que las evidencias encontradas en Facebook fueron parte las causas alegadas para solicitar el divorcio, el 15% mencionaron a MySpace, y sólo un 5% a Twitter.

Los datos referentes a Inglaterra presentan los mismos niveles de infidelidad en Facebook con un 20% de los casos señalando a la famosa red social.

Las actividades que más problemas han creado a los infieles son mantener conversaciones de carácter sexual vía chat, o realizar comentarios reveladores a través en los perfiles de desconocidos a la vista de toda la red de contactos.

Los datos que facilita del anuario CyberPsycology and Behaviour Journal calculan que Facebook ha provocado 28 millones de separaciones en el último año en todo el mundo.

Y es que el 95% de los 600 millones de usuarios de Facebook han buscado a sus ex parejas o novios de la juventud.

En mi opinión… muchos factores entran en juego, la pérdida del amor, la falta de comunicación… aunado al mal uso de las redes sociales, dan como resultado una separación.


Fuente:http://www.planetacurioso.com/2011/01/25/facebook-provoca-uno-de-cada-cinco-divorcios-en-eeuu/

¿Podrá nuestro cerebro algún día convertirse en software?

brain chip interface bridge 420x315 ¿Podrá nuestro cerebro algún día convertirse en software?

Entre todos los movimientos filosófico-intelectuales hay uno que me llama poderosamente la atención: el transhumanismo. ¿De qué trata el transhumanismo? Básicamente habla de las posibilidades y consecuencias de desarrollar tecnología con el propósito de corregir algunos aspectos de la condición humana que podrían ser indeseables, como el sufrimiento, las enfermedades o incluso la muerte.

Uno de los pensadores transhumanistas más importantes es Ray Kurzwail, que en La era de las máquinas espirituales —uno de sus libros más interesantes— hace una serie de predicciones que llegan hasta el año 2099, de las cuales muchas se han cumplido y otras están cerca de hacerse realidad. Él dice que la ciencia está cambiando radicalmente la manera de vivir de las personas y que los avances en cuatro tecnologías convergentes (nanotecnología, biotecnología, tecnologías de la información y tecnologías cognitivas) podrían llevar incluso a que en los próximos 20 años aparezca el primer ser humano inmortal.

Entre muchas otras de sus predicciones está que muy pronto podamos hacer un download de la información que tenemos en nuestro cerebro —incluída nuestra personalidad, recuerdos e ideas— a una supercomputadora. Esto va aunado a su predicción de que para el año 2029 una computadora pasará el test de Turing, demostrando tener una mente (inteligencia, consciencia de sí mismo, riqueza emocional…) indistinguible de un ser humano.

A pesar de toda la controversia que el movimiento transhumanista puede generar, hay gente que dice que esto es imposible. Tal es el caso de Timothy B. Lee, que nos habla de la imposibilidad de emular la mente humana:

Los científicos han tratado de simular el clima por años, pero todos los avances en la computación en las recientes décadas sólo han producido modestas mejoras en nuestra capacidad de predecir el clima. Esto es porque el mundo natural es mucho, mucho más complejo que nuestras computadoras más poderosas. Lo mismo pasa con nuestros cerebros. El cerebro tiene aproximadamente 100 mil millones de neuronas. Si cada neurona fuera una especie de construcción matemática simple (en el sentido de que los transistores se pueden modelar como compuertas lógicas) podríamos imaginar computadoras lo suficientemente poderosas como para simular el cerebro en diez o veinte años. Pero cada neurona es un sistema biológico complejo en si misma. No veo por qué podemos pensar que se puede reducir a un modelo matemático sencillo. No dudo que aprendamos mucho simulando neuronas en las siguientes décadas. Pero no veo por qué pensaríamos que estas simulaciones son tan fieles a la realidad como para simular un cerebro completo.

El transhumanismo da mucho de qué hablar y lugar a muchos debates éticos interesantes. Supongamos por un momento que pudiera hacer una copia de mi personalidad en una computadora y un tiempo después muero; esa simulación ¿sería yo? ¿puede esa ser una extensión de mi vida mortal? ¿sería esa una manera de vivir eternamente? O imaginemos que una computadora logra demostrar tener una mente indistinguible de la humana; ¿tendría derechos? ¿podría mejorarse a si misma? ¿terminarán por considerarnos seres inferiores o fusionaremos la inteligencia humana con la inteligencia artificial?

Hay mucho que pensar. Quizás sea cierto lo que dice Kurzweil y pronto nos veamos cerca de una singularidad tecnológica, o tal vez Lee tenga razón y tengamos que esperar mucho para poder ver a una HAL 9000. Pero lo que es cierto es que día con día estamos viviendo el paso de sci-fi a sci-fact.


Fuente:http://alt1040.com/2011/01/podra-nuestro-cerebro-algun-dia-convertirse-en-software

Recupera ficheros eliminados en linux

¿Has borrado un fichero de forma accidental en Linux y ahora quieres tratar de recuperarlo? La situación seguro que te suena, y aunque en algunos casos esa recuperación no es posible, sí existen formas de tratar de deshacer el borrado de ficheros.

Nos lo cuentan con un completo tutorial en Linux.com, en el que hablan también de cómo reparar sistemas de ficheros en Linux a través de la herramienta e2fsck, una de las legendarias en Linux y que soporta particiones Ext2, Ext3 y Ext4.

La parte más interesante del tutorial es sin duda la de recuperación de archivos borrados, en la que primero describen el proceso que tiene lugar cuando borramos un fichero, un análisis interesante que permite comprender qué ocurre cuando ejecutamos un rm sobre cualquier archivo. De hecho, en esa misma explicación se hace una recuperación “a pelo” de un fichero borrado en pruebas para mostrar el funcionamiento de la técnica.

A partir de ahí llega la descripción de una herramienta específica para la recuperación de archivos borrados en Linux, llamada Scalpel. La instalación de esta utilidad es trivial -en Ubuntu, por ejemplo,basta hacer un sudo apt-get install scalpel- y una vez instalada tendremos que editar el fichero /etc/scalpel/scalpel.conf para establecer las extensiones de archivos que queremos recuperar.

El lanzamiento de la utilidad tiene esta sintaxis:

sudo scalpel /dev/sdX -o ~/RECUPERADOS

Siendo X el número de partición que queremos escanear y donde se supone que teníamos el fichero borrado. El proceso tarda -puede llegar a una hora o más, según el tamaño de la partición- pero si tenemos suerte en el directorio RECUPERADOS que hemos creado podremos ver cómo están los archivos que buscábamos.

Ojo, hay que ser realistas con este tipo de herramientas: la recuperación de archivos depende del momento en que la ejecutemos. Si hemos borrado un fichero y a los pocos minutos nos damos cuenta de que queremos recuperarlo tenemos muchas probabilidades de conseguirlo. Pero si queremos recuperar algún fichero de meses atrás, lo tenemos mucho más complicado.

La explicación es sencilla: durante todo ese tiempo habremos utilizado el disco duro de forma intensa, escribiendo y eliminando otros datos y, por tanto, modificando los sectores del disco, que estaban marcados como disponibles cuando borramos los ficheros y que por lo tanto pueden haber sido ocupados con otro tipo de información.

Así pues, tenedlo en cuenta: si tratáis de recuperar ficheros borrados, mejor que sea cuanto antes.

KDE 4.6 Disponible

Una nueva versión del escritorio KDE ya se encuentra disponible. Sus novedades, ésta vez, no son muy numerosas pero si importantes, especialmente las mejoras relacionadas con Plasma y a ciertas aplicaciones. Podeis encontrar más información en:

Enlace | KDE Blog | Fedoreando

Ya casi estamos: la décima beta de Firefox 4 soluciona 500 errores

mozilla firefox 4 beta 10 genbeta

En Mozilla no pierden tiempo: hoy se ha liberado el público la décima beta de Firefox 4, la cuarta gran versión del navegador que ya le ha quitado el primer puesto a Internet Explorer en el ámbito europeo. Se puede descargar desde su web oficial para Mac OS X, Linux y Windows.

Esta nueva beta corrige más de 500 bugs al mismo tiempo que aumenta la estabilidad en todos los sistemas operativos. En Mac OS X, concretamente, deberíamos notar un menos consumo de recursos al visualizar contenido usando Flash. En cuanto a Windows, en esta beta aún no ha llegado pero habrá una reducción del tiempo de arranque del navegador a la mitad gracias a unas 20 líneas de código que pre-cargan la librería XUL en el sistema operativo de Microsoft.

Personalmente llevo usándolo todo el día a modo de prueba, y su rendimiento no está nada mal. He notado algunos errores como cuelgues completos del programa cuando plug-ins como Flash o Quicktime están en marcha, o incluso que los gráficos de la ventana se queden congelados hasta que otro elemento (como por ejemplo otra ventana) pasan por encima de ellos. De todas formas y aunque les quedan más detalles como estos por corregir, promete.

Si el calendario de lanzamientos se cumple, deberíamos tener la beta 11 dentro de pocos días, una release candidate para dentro de dos o tres semanas y la versión final a finales del mes que viene. Como siempre, podéis probar esta versión beta teniendo en cuenta que es una versión no recomendada para usar como navegador principal.

Vía | DownloadSquad
Más información | Lista de errores eliminados en Firefox 4 beta 10
Descarga | Firefox 4 beta 10

martes, 25 de enero de 2011

Ley sinde regresa, siendo un virus

¿Qué es un virus? Informáticamente hablando podemos definirlo como un proceso que llega de una forma aparentemente inadvertida y que una vez es ejecutado en un sistema operativo, subvierte algunas de sus funciones para que o bien dejen de funcionar o funcionen de forma anómala.

Probablemente en este punto piensen que resulta hilar muy fino, a tenor de esa definición, comparar la ley Sinde con un virus, y que lo único que estoy haciendo es un ejercicio de pura demagogia. Probablemente sea así, pero resulta que al hilo del 25 aniversario de la creación del primer virus informático, me ha llamado mucho la atención que ese primer virus (Brain) fue creado con el propósito de defender la 'propiedad intelectual' de unos informáticos Pakistanís (hermanos para ser mas precisos) que habían desarrollado un programa de gestión médica.

Y aquí estamos 25 años después en la misma tesitura, un sistema operativo (El estado de derecho Español) un virus que nos han intentado colar en un inocente PDF, que como todo buen malware tiene un título que nada hace sospechar (Ley de Economía Sostenible), creado por un grupo de gente cuya motivación es proteger a la fuerza 'su propiedad intelectual', y un montón de funcionalidades del sistema que serán subvertidas o anuladas una vez el virus se ejecute.

Como todo buen virus, muta y muta para eludir las firmas que las casas de Antivirus van liberando para protegernos, así pues si bien en su primera variación PP-av, CIU-av y otros lo detectaron a tiempo y lo anularon, en esta siguiente mutación parece ser que el equipo anti-malware de PP-av (el antivirus con mas base de usuarios) no ha sido capaz de liberar la firma correspondiente y tiene toda la pinta que la ley, perdón, el virus nos va a infectar a todos.

¿Cambiamos de sistema operativo? Dicen que hay otros mas seguros y menos susceptibles a infecciones :)

Ubuntu 11.04 usara kernel 2.6.38

Uno de los desarrolladores de Canonical ha revelado en un informe de error un dato interesante: la próxima versión de la distribución de esta empresa, Ubuntu 11.04 Natty Narwhal, integrará el kernel 2.6.38.

Hace poco que hablamos de este nuevo núcleo Linux, que según algunos analistas es uno de los más prometedores y destacados de los últimos tiempos, y parece que en Canonical están preparándolo todo para integrar todas sus ventajas en Natty Narwhal.

Lo indican en OMG! Ubuntu!, donde destacan que el rendimiento de este núcleo en escenarios muy interactivos puede mejorar hasta en un 50% según los comentarios de Linus Torvalds.

Además llegan mejoras al sistema de ficheros Btrfs que tendrán relevancia tanto en el rendimiento como en la estabilidad. La inclusión de nuevos controladores y más mejoras que analizaremos con la salida del nuevo kernel también se integrarán en Ubuntu 11.04, una distribución que promete muchos cambios, sobre todo debido a la inclusión de Unity.


Fuente:http://www.muylinux.com/2011/01/25/ubuntu-11-04-incluira-el-kernel-linux-2-6-38/


Un noticia muy esperada

WoW en linux con wine y usando Opengl

Pingüino Gamer: World of Warcraft en GNU/Linux

Ya se ha mencionado varias veces este juego en el sitio. Para mí, es el mejor MMORPG que he jugado (y sigo jugando), pero pocas veces he visto que se juegue en plataformas distintas de Windows o MAC, ha de ser porque no tenemos una versión nativa para Linux.
Y como no me gusta esperar a que Blizzard saque una (si es que les da la gana), busqué incansablemente maneras de “trabajarlo” con WINE.

A mi lo que me resultó se lo debo a factorialinux, él publicó ese artículo porque yo le pedí ayuda con esa cuestión; y como a mí también me dio resultados su manera de instalar la versión de WoW para Windows, la publico acá, dándole el debido crédito.
Lo primero que debemos hacer es instalar Wine, para Ubuntu:

sudo apt-get install wine

luego nos vamos al CD o al paquete que bajamos de nuestro servidor privado e instalamos el juego como si fuera Windows, mediante Wine.

Ahora, si importamos simplemente la carpeta de instalación del juego de la versión que usábamos en Windows, hemos de borrar (o respaldar) el caché, porque la cruza de distintos sistemas operativos, con distintas interfaces gráficas puede resultar en una experiencia de juego disminuida, simplemente movemos las carpetas “Cache” y “WTF” (no es broma, de verdad se llama así).

Ahora que hemos completado lo básico, viene la parte de hacer correr el juego propiamente tal. Mediante una terminal navegamos hasta donde hemos instalado el juego y tipeamos en esta:

wine Wow.exe -opengl

La opción opengl es debido a que como tratamos con un juego de Windows, tiende a usar DirectX.
Y ¡voila!, WoW corre en GNU/Linux.

Una foto de mi Guerrero Draenei "Tuviejo" level 80, en el SI:7 de
Stormwind.
Aunque circulan muchos tutoriales diciendo que modificar el archivo “Config.wtf” en la carpeta “WTF“, esto no funciona (por lo menos a mi, si a ustedes si, agradecería que lo comentaran) para versiones posteriores a 3.3.x del juego.

Para evitar el ajetreo con la terminal, siempre podrmos crear un lanzador en la

terminal:
Donde es claro que yo puse los archivos en la ruta ‘/home/felipe/.wow/’.

Fuente:http://chicomonte.blogspot.com/2011/01/world-of-warcraft-en-gnulinux.html

Pues lo de Opengl no lo habia probado, pero les peudo asegurar que funciona, ya solo queda jugar a este entretenido juego ;)