Google agrega la nueva funcion de calculadora científica al buscador


Cuando estaba en el colegio, y posteriormente en la universidad, mi relación con los números y fórmulas matemáticas nunca fue de la mejor, por eso, siempre necesitaba una calculadora a mi lado a fin de intentar, siquiera, resolver alguna de las operaciones que me dejaban de tarea.

Y digo intentar porque, seré honesto, ni aun así lo lograba. Y cada vez la situación empeoraba más, sobre todo cuando tenía que hacer uso de una calculadora científica y no entendía para qué servía cada botón. En fin, no creo que mi caso sea parecido al de los lectores de Tecnología 21, por lo que no dudo que todos ustedes sabrán aprovechar la nueva herramienta que Google ha puesto a su disposición en el buscador.

Se trata de una calculadora científica de 34 botones para que, aparte realizar sumas, restas y demás operaciones básicas, puedan también resolver algunos problemas más complicados. Entre los botones que incluye la calculadora científica de Google, están los de 16 funciones, además del número de Euler y pi, para que puedas terminar con éxito tus tareas de aritmética, trigonometría y realizar cálculos de logaritmos.

Para acceder a la calculadora científica de Google, puedes hacer dos cosas: escribir ‘calculator’ en la barra de búsqueda de Google, o una operación tan básica como 4+4. Cuando hagas eso, verás la calculadora en tu pantalla, tal y como se las muestro en la imagen de esta nota.

También, pueden usar la calculadora desde el Buscador de Voz, y se dice que los usuarios de dispositivos móviles también pueden utilizarla en una versión más pequeña. ¿Qué les parece? La verdad, he intentado ingresar a la calculadora desde la página de Google de mi país, pero no he podido, por lo que si ustedes también tienen el mismo problema, solo me queda decirles que tengan un poco de paciencia para que Google implemente esta calculadora científica en todos los países. Por el momento, pueden acceder a la calculadora científica desde esta página extranjera de Google.

Broadcom promete chips WiFi 5G para móviles a comienzos de 2013; hasta el triple de velocidad y seis veces más eficientes que los previstos


Broadcom ha pisado el acelerador de la tecnología 802.11ac (no es que esperáramos menos, viviendo precisamente de la comercialización de chips de comunicaciones...), y si no hace mucho afirmó que ASUS será el primer fabricante de ordenadores con conexión WiFi ac (alias WiFi 5G/Gigabit) incluida en sus laptops, ahora quiere que prestemos atención al segmento móvil con el anuncio de que a partir del primer trimestre de 2013 ofrecerá su chipset BCM435.

Este integrado es capaz de trabajar con redes WiFi (a 2,4 y 5 GHz), emparejarse con dispositivos Bluetooth 4.0 y sintonizar emisoras FM, lo que lo convierte en una solución ideal para dispositivos de tamaño reducido como teléfonos móviles y tablets. Según Broadcom, los productos con BCM435 ofrecerán hasta el triple de velocidad, seis veces más eficiencia energética y un alcance tremendamente superior en comparación con los actuales chipsets 802.11n. En su punto de mira, los fabricantes de teléfonos de todo el mundo, y en particular aquellos que no integren procesadores diseñados por Qualcomm, dado que la firma de San Diego también está trabajando en chipsets 802.11ac y de hecho ofrecerá un módulo especial para la plataforma Snapdragon S4.

Apple lanza Safari 6, actualiza iWork para su compatibilidad con OS X 10.8 y la pantalla Retina


La salida de Mountain Lion trae consigo novedades de todo tipo. Ya nos hemos percatado de la retirada de Lion de la Mac App Store y ahora tenemos que hablarte de la disponibilidad de Safari 6. El navegador viene ya de paquete con la ultima versión del SO de Apple (ofreciendo pestañas de iCloud, soporte para el buscador chino Baidu o más compatibilidades con HTML5, entre otras novedades), pero igualmente puede descargarse en aquellos equipos con OS X 10.7 en adelante para disfrutar de algunas de sus prestaciones -que no todas, ojo-. Así por ejemplo será posible contar con la función Lista de lectura en modo offline o acceder al nuevo campo de búsquedas inteligente. Para ello solo tienes que comprobar las actualizaciones del sistema y proceder a la instalación del nuevo software disponible -tienes una captura tras el salto-.

Del mismo modo, Apple no ha querido dejar abandonado iWork, que también ha recibido un soplo de aire fresco para soportar mejor la llegada de Mountain Lion. Pages, Keynote y Numbers son ahora compatibles con el dictado por voz de OS X 10.8, sincronizan con iCloud y se les sacará mayor partido aún al ser utilizados en las pantallas Retina de los nuevos MacBook Pro. El precio de cada app es de 15,99 euros.

Google lanza fibra óptica para conectarse a Internet a gran velocidad, Google Fiber


Una red de fibra óptica experimental lanzará Google este jueves en la ciudad de Kansas, EE.UU. El gigante de Internet, que se aventura en el campo de la infraestructura de comunicaciones, ofrecerá son su nueva fibra velocidades de conexión a Internet de hasta 1 GB por segundo.

Google ha confirmado el lanzamiento de su fibra óptica de través de un video en que asegura que este tendrá lugar mañana. Distintos analistas aseguran que Internet podrá ser 100 veces más veloz con esta nueva fibra óptica.

De extenderse la red, Google podría convertirse en la mayor amenaza de los proveedores, tal como ya fue la pesadilla para su competencia en el mundo de la navegación. De hecho, Time Warner Cable ofrece una recompensa a quién tenga datos sobre la nueva conexión, informa el portal GigaOm.


iPhone 5 revoluciona la visualización de imágenes con su nueva interfaz 5D


Antes de fin de año, al parecer, conoceremos al nuevo modelo del teléfono inteligente de Apple, iPhone 5, lo que ha generado una serie de especulaciones respecto a las herramientas que ofrecerá. Una de las más fuertes es la relativa a la reproducción de imágenes, punto muy tenido en cuenta a la hora de comprar un móvil, por lo que se prevé que tendrá una interfaz 5D.

¿Y en qué consiste esta tecnología? Este sistema produce interfaces tridimensionales que pueden ser tocadas gracias a su registro de la magnitud de la fuerza táctil, ideal para los juegos que ofrece el mercado para amenizar nuestros momentos de relax.

Sin embargo, lo que menos desea Apple es ser una competencia de temer para el Kinect para Xbox 360, por ejemplo, sino que el iPhone 5 sea conocido por ser el primer gadget en utilizar este tipo de interfaz, mejorando así la experiencia del usuario.

Según GamesIndustry.biz, la salida del esperado iPhone 5 se daría el 21 de setiembre próximo.

Deshielo sin precedentes en Groenlandia


Durante varios días de este mes, la cobertura de hielo en la superficie de Groenlandia ha sufrido un proceso de fusión en un área mayor que en cualquier momento anterior a lo largo de más de 30 años de observaciones satelitales, según ha informado la NASA.

Casi toda la cubierta de hielo de Groenlandia, desde las zonas más finas en las costas hasta los dos kilómetros de profundidad en el interior ha experimentado algún grado de fusión en su superficie a mediados de estes mes debido a las altas temperaturas, de acuerdo con las mediciones de tres satélites independientes analizadas por científicos de la NASA y unviersidaes.

En promedio, durante el verano, cerca de la mitad de la superficie de la capa de hielo de Groenlandia se derrite de forma natural. En las zonas altas, la mayor parte de esa agua de deshielo rápidamente vuelve a congelarse en el mismo lugar. Cerca de la costa, algo del agua de fusión es retenida por la capa de hielo y el resto se pierde en el océano.

Pero este año el grado de fusión del hielo en la superficie ha aumentado notablemente. De acuerdo con los datos de satélite, se estima que el 97% de la superficie de la capa de hielo se ha descongelado, al menos parcialmente, en algún momento a mediados de julio.

Los investigadores aún no han determinado si este evento extenso de fusión afectará el volumen global de pérdida de hielo este verano y contribuirá a la elevación del nivel del mar. "La capa de hielo de Groenlandia es una extensa zona con una historia variada de cambio. Este evento, junto con otros fenómenos naturales, aunque poco frecuentes, como el caso de la fractura de un enorme iceberg la semana pasada en el glaciar Petermann, son parte de una historia compleja", dijo Tom Wagner , director del programa de criosfera de la NASA en Washington. "Las observaciones por satélite están ayudando a entender cómo eventos como estos pueden relacionarse unos con otros, así como con el sistema climático más amplio."

Son Nghiem, del Laboratorio de Propulsión a Chorro en Pasadena, California, realizó un primer análisis de datos de radar del satélite Oceansat-2 de la Indian Space Research Organisation (ISRO) la semana pasada, cuando se dio cuenta de que la mayor parte de la superficie de Groenlandia parecía que había sido sometida a una fusión del hielo el 12 de julio. Nghiem dijo: "Esto fue tan extraordinario que en un primer momento me cuestioné el resultado".

Nghiem consultó con Dorothy Hall, en el Centro Goddard de Vuelo Espacial en Greenbelt, Maryland, que estudia la temperatura de la superficie de Groenlandia con el Espectrómetro de Imágenes MODIS a bordo de los satélites Terra y Aqua de la NASA. Confirmó que MODIS mostró temperaturas inusualmente altas y que el deshielo era extenso sobre la superficie de la capa de hielo.

Thomas Mote, un climatólogo de la Universidad de Georgia, Athens, Georgia, y Marco Tedesco, de la Universidad de la Ciudad de Nueva York también confirmaron la fusión vista por Oceansat-2 y MODIS a través de imágenes de sensores de microondas en un satélite meteorológico de la Fuerza Aérea de EEUU.

El deshielo se extendió rápidamente. Mapas derivados de los tres satélites mostraron que el 8 de julio alrededor del 40% de la superficie de la capa de hielo se había derretido. El 12 de julio, el 97% se había derretido.

Cúpula de calor
Este evento de fusión extrema sde ha devido a una cresta inusualmente fuerte de aire caliente, o cúpula de calor, sobre Groenlandia. Este evento ha sido parte de una serie que ha dominado el clima de Groenlandia desde fines de mayo. "Cada cresta sucesiva ha sido más fuerte que el anterior", dijo Mota. Esta cúpula última de calor comenzó a moverse sobre Groenlandia el 8 de julio, y luego se estacionó sobre la capa de hielo unos tres días más tarde. Hacia el 16 de julio había comenzado a disiparse.

Incluso el área alrededor de una estación en el centro de Groenlandia, que a 2.000 metros sobre el nivel del mar está cerca del punto más alto de la capa de hielo, mostró signos de fusión. Dicha fusión pronunciada en la en la capa de hielo de la zona no se había producido desde 1889, de acuerdo con los núcleos de hielo analizados. "Los núcleos de hielo muestran que los eventos de fusión de este tipo ocurren aproximadamente una vez cada 150 años en promedio.  Con el último acontecimiento en el año 1889, este evento llega justo a tiempo", dice Lora Koenig, un glaciólogo del centro Goddard y miembro del equipo de análisis de los datos obtenidos por satélite. "Pero si seguimos observando los acontecimientos de este tipo de fusión en los próximos años, será preocupante".

Células de una rata dieron origen a una medusa artificial


Una medusa artificial que nada y emite pulsaciones eléctricas fue creada por investigadores estadounidenses a partir de células del corazón de una rata, silicón e ingeniería genética. La criatura sintética, similar a una flor de ocho pétalos, es muy parecida a sus contrapartes vivas

“Morfológicamente, construimos una medusa. Funcionalmente, construimos una medusa. Genéticamente, esto es una rata”, aseguró a la revista científica “Nature” el responsable de la creación, Kit Parker, según declaraciones recogida por CNN México.

Parker, biofísico por la Universidad de Harvard, dijo que esta idea nació mientras estudiaba nuevas formas de impulso muscular. Llevó a cabo el proyecto junto a un bioingeniero y una estudiante del Instituto Tecnológico de California.

Los científicos recrearon una medusa cuya capa está hecha de músculo con fibras alineadas alrededor de un anillo. La estructura fue recreada con tejidos de rata y luego aplicó electricidad para hacer que se contrajera. “Desbaratamos una rata y la reconstruimos como una medusa”, dijo Parker.

Cuando se coloca entre dos electrodos en el agua, la medusa nada como un ser real.

El rendimiento gráfico de Windows 8 explicado con todo lujo de detalles


Tras hablar de todo tipo de experiencias sensoriales (como la vista y el tacto), Microsoft ha dejado a un lado los efectos llamativos y ha pasado a los números y a hablar de algo que muchos esperaban: la velocidad. Para ello, los de Redmond han preparado varias de esas gráficas que tanto gustan con las que poder conocer la mejoría que ofrece Windows 8 respecto a Windows 7 a nivel de aceleración gráfica. Y es que según cuentan, la interfaz Metro correrá alegremente a 60 imágenes por segundo sin ningún tipo de problema, generando efectos de transición, geometría optimizada e incluso mejorando las fuentes. Todo ello con un salto importante de rendimiento frente a Windows 7 gracias a la utilización de DirectX 11.1 como fuente principal en la aceleración de vídeo. Te dejamos con el enlace de lectura para que puedas ver todos los detalles al milímetro.

Avanti anuncia la disponibilidad de internet vía satélite de prepago


Las conexiones de internet vía satélite no son nada nuevo (de hecho son la única opción desde hace tiempo en algunas zonas especialmente apartadas de los núcleos urbanos), pero hasta ahora ese tipo de servicio estaba disponible únicamente con costosos planes de permanencia que no tenían sentido alguno para las personas que viajaban poco. Avanti pretende cambiar las reglas del juego al ofrecer internet vía satélite de prepago, por medio del servicio Ka-band que proporciona 4 Mbps de bajada y 1 Mbps de subida. Esa ciertamente no es una velocidad muy atractiva comparada con servicios de fibra óptica de unos 330 Mbps, pero la comodidad de subir fotos a Facebook desde la cima de una montaña o conectarse a Skype en pleno Mediterráneo no tiene comparación.

Avanti venderá el servicio de prepago a proveedores locales ubicados en toda Europa, que a su vez podrán ofrecer paquetes de 1 GB a sus clientes. Y esto no es todo, porque a partir del 2 de agosto entrará en funcionamiento el satélite HYLAS2, que ofrecerá el mismo tipo de servicio a África, el Cáucaso y Oriente Medio.

Con esto dicho, nos agradaría ver las caras de los ejecutivos de proveedores locales si terminan ofreciendo un producto similar en Latinoamérica, donde todavía se ven abusivos paquetes de internet por línea fija que no llegan ni a los 500 Kbps.

Los 15 programas maliciosos más influyentes en la historia


El equipo de expertos de Kaspersky Lab ha producido algunas de las detecciones y análisis de ciberamenazas avanzadas más innovadoras. Esta riqueza en experiencia ha descubierto recientemente algunos de los malwares más complejos que se hayan visto en el mundo, incluyendo Cabir, Duqu y el infame y más reciente malware Flame.

Al descubrir estos ataques y al tomar un rol prominente en el análisis de amenazas similares —como Stuxnet, Kaspersky Lab— se ha convertido en una organización de referencia, en tiempos de una nueva generación de crimen organizado en línea y ciberarmas.

“Hoy en día, cooperar contra las amenazas digitales es más importante que nunca. Ataques recientes como Stuxnet, Duqu y Flame, han mostrado la vulnerabilidad de las infraestructuras TI con respecto a amenazas militares y terroristas”, dijo Eugene Kaspersky, Director Ejecutivo y Cofundador de Kaspersky Lab. “Estamos haciendo todo lo posible para evitar los desastres potenciales que pueden resultar de este tipo de ataques”, agregó.

Para celebrar su aniversario número 15, Kaspersky Lab ha preparado una selección de los 15 programas maliciosos más influyentes en la historia:

1. Brain (1986), apareció el primer virus para PCs: el virus se expandió al escribir su código en el sector boot de discos floppy.

2. El gusano Morris (1988), infectó alrededor del 10 por ciento de las computadoras conectadas a Internet (cerca de 6 mil computadoras).

3. Michelangelo (1992), el primer virus en atraer la atención de los medios masivos.

4. Concept (1995), el primer macro virus.

5. Melissa (1999) ingresa en la era de correos-masivos de malware responsables por inmensas epidemias globales.

6. Slammer (2003), un gusano sin archivo, responsable por una epidemia masiva a nivel mundial.

7. Cabir (2004): primer prototipo de Symbian, propagado vía Bluetooth.

8. Leap (2006), el primer virus para Mac OSX.

9. Gusano Storm [Zhelatin] (2007), pionero en el uso de servidores C&C distribuidos.

10. Koobface (2008), el primer malware con Facebook como objetivo.

11. Conficker (2008), una de las epidemias más grandes en la historia, infecta compañías, usuarios particulares y gobiernos en más de 200 países.

12. FakePlayer (2010), Troyano SMS para Android.

13. Stuxnet (2010), un ataque con el objetivo de sistemas SCADA [Control de Supervisión y Adquisición de Datos] señaló la irrupción de la era de la ciberguerra.

14. Duqu (2011), un Troyano sofisticado que obtiene la inteligencia acerca de sus objetivos.

15. Flame (2012), un programa malicioso altamente sofisticado, que se utiliza activamente como ciberarma, con entidades en varios países como objetivo.

Osiptel multa a Claro y a Movistar por portabilidad numérica


Por no proveer información veraz a los usuarios sobre el procedimiento de la portabilidad numérica, las empresas Telefónica Móviles (Movistar) y América Móvil (Claro), fueron multadas por el Organismo Supervisor de Inversión Privada en Comunicaciones (Osiptel).

En el caso de Telefónica Móviles (Movistar), esta recibió una multa de 100 UIT (S/.365,000) luego de que en marzo de 2011 la Gerencia de Fiscalización y Supervisión del Osiptel detectara que la empresa brindó a sus usuarios información inexacta sobre el tiempo mínimo de permanencia, a la portabilidad con reclamo en trámite, a la duración del trámite de portabilidad y al periodo de interrupción del servicio.

Por su parte, la empresa América Móviles (Claro) fue sancionada con una multa de 75 UIT (S/.273,750), luego que Osiptel detectara, también en 2011, que la empresa no fue veraz con sus usuarios sobre el período de interrupción que se produce con ocasión a una solicitud de portabilidad, señalando que este puede durar hasta nueve días, cuando como máximo puede durar tres horas, según el “Reglamento de Portabilidad Numérica en los Servicios Públicos Móviles”.

La portabilidad numérica permite conservar el número telefónico cuando el cliente cambia a otra compañía de telefonía, con el propósito de fomentar una competencia más equitativa entre los proveedores de servicios de telecomunicaciones.

Tuenti ya está disponible para Perú


Tal y como se los anuncio en el título; para la felicidad de aquellos que andan buscando nuevas formas de compartir sus experiencias, la versión Beta de la plataforma de comunicación social llamada Tuenti ya se encuentra disponible en Perú. Sí, los peruanos ya podemos empezar a disfrutar de la famosa red social española, que hasta hace poco sólo se podía acceder a través de una invitación.

Para los que estén interesados, Tuenti ofrece una nueva forma de interacción social donde el intercambio de mensajes se convierte en una acción sencilla. Con Tuenti podremos compartir nuestras experiencias en los perfiles de nuestros amigos. Nuestras publicaciones se mostrarán como ‘momentos’ y solo serán observadas por aquellos que se encuentren en nuestro círculo de amistad.

Tuenti, al igual que otras redes sociales, nos da la posibilidad de hablar con todos nuestros contactos. La diferencia está en que, por cuestiones de seguridad, nuestras actualizaciones solo podrán ser vistas por aquellos que consideramos nuestros amigos.

Esta plataforma integra una aplicación web, una aplicación web optimizada para móvil y aplicaciones nativas para Android y BlackBerry. Las aplicaciones para iPhone y Windows Phone estarán disponibles en las próximas semanas. Para más información te invito a revisar la nota de prensa que te dejo abajo.

El 57% de mypes accede a Internet para optimizar actividades laborales


El 57 por ciento de micro y pequeñas empresas (mypes) de Perú accede a Internet para optimizar sus actividades laborales, informó hoy Analytics & Insights de MEC, agencia de medios global e integral.

La directora de MEC, Alicia Nagahama, refirió que el consumo de Internet en dicho segmento, que constituye el motor de la fuerza laboral, registra un crecimiento anual de nueve por ciento desde hace cuatro años.

Según el estudio realizado por Ibope sobre el consumo de medios durante el 2012, la mayoría de micros y pequeños empresarios acceden a Internet en el hogar, seguido de las cabinas y del centro de trabajo.

Precisó que un 31 por ciento de los micro y pequeños empresarios tienen edades superiores a 45 años, lo que contradice al supuesto de que las personas mayores no emplean Internet. “Si bien algunos adultos no tienen la misma apertura a la tecnología, los micros y pequeños empresarios de hoy han aprendido a convertir al Internet en un aliado”, sostuvo.

En tanto, un estudio cualitativo realizado por MEC concluye que el uso de Internet en el mencionado segmento suele ser de forma funcional, es decir, representa una herramienta de trabajo porque reciben pedidos, responden solicitudes y cierran negociaciones.

Entre las principales actividades que realizan en Internet, el 72 por ciento usa sus correos electrónicos, ya sean Hotmail o correo de su centro laboral, y el 51 por ciento accede a redes sociales como Facebook o Twitter. El 47 por ciento visita sitios de educación en búsqueda de información especializada que aporte en su trabajo y además usa buscadores como Google. Asimismo, el 40 por ciento lee noticias, una de las actividades con mayor afinidad en el segmento de las mypes.

Google Nexus 7 vs nuevo iPad, desvelando sus secretos


A los chicos de SquareTrade no se les ha ocurrido otra cosa que hacer una serie de test de resistencia para ver cuál de las dos tabletas, la Google Nexus 7 o el nuevo iPad de Apple, aguantan mejor el ajetreo diario. Para ellos han realizado pruebas de caídas, desde las manos a la altura del pecho y desde un asiento, y una inmersión completa en agua. Si eres sensible a los destrozos de equipos de última generación, no te recomendamos que veas el vídeo.

Ya hemos mencionado que los autores materiales de estas perrerías, grabadas en vídeo, a las tabletas Nexus 7 y la nueva iPad son SquareTrade. Su objetivo era ver cuál de los dos modelos era más resistente al uso diario que, lógicamente, puede incluir caídas desde las manos cuando estamos de pie o desde un asiento, pero también inmersiones en agua. Este último punto es más infrecuente que, por ejemplo, las salpicaduras, pero no está de más comprobar qué ocurría si la tableta se cae en una bañera.

Primera prueba
Los dos probadores se encuentran de pie con una tableta en la mano. Uno lleva la Nexus 7 y el otro el iPad de Apple. La caída se produce desde la altura del pecho. A la voz de ya, simplemente dejan caer el equipo, algo que puede suceder habitualmente. Los resultados nos muestran que la Google Nexus 7 no ha sufrido ningún daño en la pantalla, ni en la carcasa posterior, aunque sí se perciben arañazos en una de las esquinas. En el caso del iPad, en la parte posterior no se ven daños, pero la pantalla está claramente afectada.

Segunda prueba
La caída se produce esta vez desde la altura de un asiento. La Google Nexus 7 vuelve a demostrar su resistencia con ligeros daños en una de las esquinas. El iPad de Apple supera este test mejor que en el caso anterior, pero los daños en uno de los bordes de la pantalla, siguen siendo mucho mayores que los sufridos por la Nexus 7. Vuelve a vencer la tableta fabricada por Asus.

Tercera prueba
Las dos tabletas quedan completamente sumergidas en el agua de una bañera. Al sacarlas del líquido, la persona que está haciendo el test comprueba que en el iPad todo parece estar correcto, la funcionalidad táctil de la pantalla se mantiene intacta, pero no es capaz de reproducir el sonido. Cuando hace el mismo test a la Google Nexus 7, todo está bien y además podemos ver el vídeo y escuchar la música. De nuevo, la Nexus 7 sale victoriosa de este tercer test.

Crean inodoro que convierte los desechos en abono, combustible y electricidad


Un grupo de científicos de Singapur inventó un inodoro ecológico muy particular: convierte los desechos humanos en abono y combustible mediante un sistema que además ahorra hasta un 90% de agua.

Los investigadores de la Universidad Tecnológica de Nanyang aseguran que el primer prototipo del producto, llamado No-Mix Vacuum, empezará a funcionar el próximo año en los baños de esta institución académica de Singapur. “La universidad está preparando su propio retrete para el año que viene. Varias compañías, incluidas promotoras de viviendas y hasta un parque temático, han mostrado ya interés en este sistema evacuatorio desde que fue anunciado”, explicó Lester Kok, del Departamento de Comunicación del centro de estudios.

Este retrete ecológico está equipado con dos recipientes que recogen por separado las deposiciones líquidas y sólidas, así como con un sistema de succión similar al utilizado en los baños de los aviones. La orina es transportada a una cámara donde se descompone en nitrógeno, fósforo y potasio utilizados como fertilizantes, mientras que los desechos sólidos llegan a un “biorreactor” que los procesa y transforma en biocombustible de metano.

El metano es inodoro y se puede utilizar para sustituir al gas natural en los fogones de la cocina o puede ser empleado como productor de electricidad. “El sistema No-Mix Vacuum no requiere que el retrete esté conectado a las tuberías de la red de alcantarillado”, apunta Lester Kok.

Este inodoro solo utiliza 0,2 litros de agua para evacuar la orina y un litro para las deposiciones sólidas, lo que supone un 90% de ahorro con respecto al sistema convencional, que necesita entre 4 a 6 litros cada vez que se tira de la cadena. Con una media de 100 usos al día, este excusado utiliza 160.000 litros menos en un año, suficiente para llenar una piscina de 160 metros cúbicos.

El profesor Wang Jing-Yuan, director del proyecto, afirma que el sistema que porta el inodoro supone un método de reciclaje más eficiente y barato dado que realiza ese proceso de forma automática. “Separando los desechos humanos en los hogares y procesándolos in-situ ahorraremos los costes derivados en los procesos tradicionales reciclaje, este sistema innovador utiliza un método más simple y barato para producir fertilizante y combustible”, apunta Wang.

Sus creadores ahora negocian con las autoridades estatales la posible instalación de prototipos en las viviendas de una zona residencial que se proyecta construir y confía en que pueda ser usado por ciudadanos de otros países en tres años. Según los investigadores, el sistema también está pensado para hoteles, urbanizaciones o construcciones apartadas que no cuenten con una red de alcantarillado y necesiten cierta autonomía.

La Universidad Tecnológica de Nanyang presentó el proyecto el pasado 4 de julio en la feria de ciencia y tecnología WasteMet Asia 2012 en Singapur y firmó un acuerdo de colaboración con el Centro de Ingeniería Natural de la Universidad de Columbia, EE.UU.

Los productos a los que Apple les declaró la guerra


En su reciente Worldwide Developers Conference (WWDC), Apple mostró una serie de dispositivos que están dispuestos a posicionarse en el mercado. Businessinsider, presentó una lista de los productos de Apple dispuestos a sacudir la industria. Te presentamos los principales:

1. Google Maps: el nuevo Apple Maps ofrece instrucciones en 3D que te llevan paso a paso a la dirección deseada. Cuenta con reseñas y recomendaciones para restaurantes.

2. Unidad Óptica: al igual que MacBook Air, MacBook Pro ya no viene con una unidad para DVD. Apple ofrecerá una unidad óptica USB en casos de emergencia.

3. Ethernet: las MacBook Pro ya no cuentan con entradas para ethernet. WiFi es el futuro.

4. Discos duros: Apple abandonó las unidades de disco duro para darle paso a las unidades de estado sólido, que son más rápidas y silenciosas. Por ahora son más caras, pero bajarán sus precios.

5. Dropbox: iCloud, es el nuevo servicio de almacenamiento que puede sincronizar mensajes, recordatorios, notas y aplicaciones.

6. Google Docs: si estás conectado al iWork de Apple, ya no necesitarás de otro servicio como el de Google, salvo que trabajes con personas que no cuentan con Apple .

7. Aplicaciones de videochat: Facetime ahora trabaja con tu red de celular, por lo que ya no necesitas estar conectado a WiFi.

Google+ permite transferir datos entre diferentes cuentas de un mismo usuario


Google+ ahora permite transferir datos entre diferentes cuentas de un mismo usuario. Los usuarios de la red social que quieran trasladar sus círculos u otros datos entre una cuenta «fuente» y una de «destino», ahora pueden hacerlo gracias a la herramienta Google Takeout.

Google permite abrir sesión con diferentes cuentas en varios de sus servicios dentro del mismo navegador. Por ejemplo, es posible «añadir cuenta» cuando se tiene abierta sesión en Gmail. Con ello, el usuario puede abrir dos bandejas de dos direcciones diferentes en pestañas de un mismo navegador. Ahora, las posibilidades se siguen ampliando en Google+.

Google Takeout permite descargar una copia de los datos almacenados en los productos de Google. Para conectar ambas cuentas, sólo hay que seguir los pasos que se indican en la herramienta. Para que los datos se transfieran de una cuenta a otra, hay que esperar por un período de 7 días. Sin embargo, la herramienta no podrá volver a utilizarse hasta pasados 6 meses, reseña Europa Press.

Cancelar la cuenta es muy sencillo, pero no podrá hacerse mientras la transferencia está en proceso, ni desde la interfaz móvil. Por otro lado, mientras Google se encarga de conectar las cuentas, ambos perfiles estarán sujetos a ciertas restricciones. El usuario que quiera compartir contenidos, añadir o bloquear gente, tendrá que esperar durante las 48 horas que dura el proceso.

Google sustituye la información del perfil «origen» en la del perfil «destino» en los círculos de amigos y conocidos. La conexión mantiene la configuración de los círculos, sus categorías y sus miembros. Además, los usuarios bloqueados o ignorados se mantienen igual en la cuenta paralela.

Aunque conectar cuentas de diferentes redes sociales es lo más normal del mundo, no es habitual poder usar dos perfiles y conectar su información en una misma red social y menos aún en sobremesa (Twitter para móviles, por ejemplo, permite iniciar sesión con varias cuentas diferentes). Es una ventaja para aquellas personas que mantienen abiertos varios perfiles a la vez y que desean unificarlos o exportar sus contenidos.

Cinco razones para estar en Google+


Cada vez más peruanos, entre los que puede encontrarse a periodistas, artistas y empresas, se han ido sumando progresivamente a ella, deseosos de compartir en la web tal como lo hacen en la vida real, formando parte de los más de 250 millones de usuarios a nivel mundial que ahora disfrutan de esta plataforma, cuyo lanzamiento apenas data del 29 de junio de 2011.

Las motivaciones para estar en Google+ son diversas. Desde lo sencillo de su uso y lo fácil que es compartir contenido, hasta el alto nivel de seguridad y privacidad, además de la capacidad de decidir cómo manejamos nuestra información, esta plataforma cuenta con una identidad propia y características muy innovadoras que están en constante evolución.

Aquí les presentamos algunas razones de peso para no dejar pasar más tiempo sin estar en Google+:

1. La integración con los servicios de Google.
Una cuenta en Google+ te permite tener todo en un solo lugar: correo, documentos en la nube, YouTube, noticias y lecturas. Desde Google+ acceder al buscador de Internet, o publicar una foto que hayas tomado con un smartphone es un proceso fácil y rápido. La posibilidad de vincular las cuentas de Google+ y YouTube tiene múltiples beneficios: al compartir videos por esta plataforma se puede definir con quién hacerlo, compartirlo al momento de realizar un hangout u obtener información más detallada de quién comparte los videos que usted sube directamente.

2. Cada persona en su ‘círculo’ apropiado.
En Google+, la persona decide quién estará en cuáles círculos, con un solo clic. Esto le permite a las personas diferenciar muy fácilmente a su familia de sus amigos, sus colegas de trabajo o sus contactos profesionales para compartir información en forma segura y dirigida a los que verdaderamente les pueda interesar. Se trata de tener ‘círculos sociales’ que posibiliten decidir qué decir y a quién dirigirse en la Web, tal como se hace en la vida real.

3. Hangouts: la nueva forma de comunicarse online.
Los hangouts son útiles para quienes quieran enseñar y hacer negocios, y divertidos para quienes quieran estar cerca de los amigos sin salir de casa. Este sistema de videoconferencia permite verse cara a cara hasta con 10 personas al mismo tiempo; compartir videos, fotos y documentos con facilidad, chatear, ver videos de YouTube y compartir si así lo deciden su propia pantalla. Y, ahora con la nueva función de Hangout en Directo abierto para todo el público, es posible hacer transmisiones en vivo y en directo con audiencias localizadas en cualquier parte del mundo, y en donde más de 10 personas pueden unirse.

4. Toda la tecnología del buscador integrada.
La integración entre el buscador y Google+ permite que los usuarios puedan encontrar de manera sencilla en la Web lo que la gente comparte socialmente, además permite acceder a búsquedas precisas dentro de la plataforma y a información de interés clasificada a través de los círculos en los que se organiza Google+.

5. Mayor visibilidad para las empresas y negocios.
No solo se trata de tener un perfil en el que una empresa o negocio muestre lo mejor que sabe hacer, todos saben que es importante estar presente y ser oportuno. Al tener un perfil en Google+ las compañías tienen más oportunidades de aparecer de forma rápida en las búsquedas y la posibilidad de tener presencia en Google Places para que ubiquen con mucha más facilidad, y eso es simplemente un gran impacto en visibilidad que se traduce en resultados y ganancias.

Perú y Corea instalarán Laboratorio de Ciencias Tecnológicas Oceánicas


El Ministerio de la Producción y el Ministerio de Asuntos Terrestres, de Transporte y Marítimos de la República de Corea presentarán hoy un convenio interinstitucional para instalar un Laboratorio de Investigación en Ciencias y Tecnologías Oceánicas para Latinoamérica.

La ministra de la Producción, Gladys Triveño, participará en la ceremonia de presentación del mencionado acuerdo suscrito entre ambos países.

También participará en la presentación del acuerdo el embajador de Corea en Perú, Hee Kwon Park.

Telescopio Hubble descubre una nueva luna de Plutón


Mediante observaciones realizadas a través del telescopio «Hubble», un equipo de astrónomos ha descubierto una quinta luna en la órbita de Plutón. En las imágenes puede verse una mancha de luz, de forma irregular y un tamaño que va entre los 10 hasta los 25 kilómetros de diámetro. Según Mark Showalter, el líder del equipo de investigación, la luna se encuentra en el mismo plano que el resto de las lunas del pequeño planeta: «Forman una serie de órbitas perfectamente anidadas, como muñecas rusas», ha asegurado. Este descubrimiento ha despertado una incógnita entre el equipo investigador: cómo un planeta tan pequeño como Plutón puede contar con un conjunto de satélites tan complejo.

La quinta luna de Plutón ha servido para arrojar luz acerca de cómo se ha formado y evolucionado el sistema de satélites del último planeta del sistema solar: de acuerdo con Showalter, la teoría más probable es que todas las lunas sean «reliquias» de una colisión entre Plutón y el Cinturón de Kuiper, producida hace mil millones de años.

La «historia lunar» de Plutón
La luna más grande de Plutón, Caronte, fue descubierta en 1978. Posteriormente, las observaciones llevadas a cabo por Hubble en 2006 descubrieron dos lunas pequeñas, Nix e Hydra, y el año pasado se halló un último satélite, conocido como P4. De manera provisional, los científicos han nombrado al nuevo cuerpo como «S/2012 (134 340) 1», o «P-5», y han logrado identificarlo en nueve series distintas de las imágenes tomadas por «Hubble» entre el 26 de junio y el 9 de julio.

A pesar de que los datos son «inequívocos», según ha indicado el investigador, se podrán tener más datos de la luna cuando se haga el histórico y ansiado viaje a Plutón. Pero habrá que esperar ya que la sonda espacial de la NASA «Nuevos Horizontes» no lo hará hasta 2015. «Esta sonda traerá las primeras imágenes detalladas del sistema de Plutón, que es tan pequeño y lejano que ni siquiera Hubble puede apenas verlo», añadió Showalter.

Desafíos de la sonda «Nuevos Horizontes»


El equipo está usando la poderosa visión de «Hubble» para revelar los posibles riesgos que la sonda espacial pueda correr en su viaje a Plutón. Pasando por el pequeño planeta a una velocidad de 30.000 km/h, «Nuevos Horizontes» podría ser destruída en una colisión con pequeñas piezas de restos orbitales. 

«El descubrimiento de pequeñas lunas nos adelanta indirectamente que debe haber gran cantidad de pequeñas partículas invisibles alrededor del sistema de Plutón» afirma Harold Weaver, del Laboratorio de Física Aplicada del Hospital Johns Hopkins de Laurel, Maryland. «El inventario del sistema de Plutón que se está recopilando a través de Hubble junto con el equipo de "Nuevos Horizontes", permitirá diseñar una trayectoria segura para la sonda cuando haga el esperado viaje a Plutón» ha afirmado Alan Stern, el principal investigador de la futura misión del Southwest Research Institute de Boulder, Colorado.

Los astronautas de la sonda «Nuevos Horizontes» planean utilizar la visión infrarroja del que será el sucesor de Hubble: el telescopio espacial de la NASA James Webb para las observaciones futuras. El telescopio Webb será capaz de medir la superficie química de Plutón, sus lunas y otros cuerpos que se encuentran en la distancia entre el Cinturón de Kuiper y Plutón.

Kaspersky: Daños que causó DNSChanger en América Latina


La semana pasada les alertábamos de que el FBI desconectaría el servidor de la red zombi DNS Chager, y que por tal motivo los usuarios infectados se quedarían sin conexión; es decir, sin poder acceder a los sitios de Internet a no ser que escriban la IP en la barra de navegación.

Pues bien, ahora que el FBI ya hizo su trabajo, es preciso mencionar los daños que ha ocasionado el troyano DNSChanger. En el informe de Kaspersky, se indica que Rusia, China y EE.UU conforman la lista de los países más afectados por DNSChanger.

Respecto a los países de América Latina, Kaspersky muestras que Colombia es el territorio más afectado (26%), seguido por México (23%), Perú (17%) y Brasil (16%). La lista de países latinoamericanos que han sido perjudicados por el troyano DNSChanger está conformado por 10 territorios; los seis países que siguen el orden de la lista son: Ecuador (8%), Venezuela (4%), Argentina (2%), Chile (2%), Panamá (1%) y Costa Rica (1%).

‘Podemos estimar que la cantidad total de las máquinas en América Latina que quedaron sin el Internet hoy se calcula por decenas de miles’, dijo Dmitry Bestuzhev, director de análisis e investigación de Kaspersky.

Si después de las acciones del FBI, usted es un usuario que aún tiene problemas, puede cambiar manualmente sus DNS a los de Google: primario 8.8.8.8 y el secundario 8.8.4.4. También puede revisar su PC con la herramienta gratuita de Kaspersky (TDSSKiller) haciendo clic en este enlace.

Nota de prensa: Daños que causó DNSChanger en América Latina


Twitter también apunta a los teléfonos no inteligentes


Pese al gran crecimiento que ha evidenciado el mercado de los teléfonos inteligentes, en nuestro país y gran parte del continente el 70 % de los celulares que se venden son feature phones: teléfonos comunes, no inteligentes, con funciones mucho más sencillas.

Twitter, que ha logrado consolidad su presencia en los teléfonos de alta gama, ahora también apunta a los teléfonos no inteligentes. Según informa Silicon News, la red de microblogging ha establecido una alianza con el fabricante de chips MediaTek para ofrecer la misma experiencia en teléfonos de gama media.

De esta forma, Twitter le seguirá los pasos a Facebook, que desde hace algunos años instaló su aplicación en equipos convencionales.

El smartphone de Amazon ya se encuentra en fase beta


Amazon también ha decidido lanzarse al mundo de los teléfonos inteligentes, un mercado que ha crecido de manera exponencial en los últimos meses. Según publicó “The Wall Street Journal”, a finales de este año la compañía comenzará con la producción masiva.

El nuevo equipo tendría una pantalla de aproximadamente cuatro o cinco pulgadas. Por el momento, Amazon se encuentra haciendo pruebas con diferentes proveedores en Asia.

De otro lado, el diario chileno La Tercera publicó que la compañía ya viene trabajando “en una próxima generación del Kindle Fire que contaría con una mejor resolución de pantalla (de 1280 × 800, en vez de la 1024 × 600 píxeles de la actual)”. Además de una mejor calidad de imagen, el nuevo diseño sería más delgado, contaría con una cámara y una carcasa más resistente.

Despues de 20 años de la primera foto subida a Internet


Seguramente el nombre de Les Horribles Cernettes no te suene conocido. Se trata de una agrupación musical que hoy es famosa porque una imagen suya fue la primera fotografía subida a Internet.

Según informa ABC, la imagen fue tomada el 18 de julio de 1992, hace casi 20 años. En ella se ve a las integrantes del grupo posando como si fuera la portada de un disco. “Fue subida en formato .GIF desde un Mac a color, utilizando la primera versión del programa PhotoShop, de Adobe”.

La foto fue subida por Tim Berners en las instalaciones de la Organización Europea para la Investigación Nuclear, el CERN. Berners desarrolló la World Wide Web, que en aquellos años estaba exclusivamente compuesto de texto.

Berners comentó que eligió esta foto debido a que era la que tenía más a la mano. “Me pareció divertido ponerle una imagen a tanto texto”, dijo. Sobre Les Horribles Cernettes hay que decir que se trataba de un cuarteto de mujeres, empleadas y novias de los empleados de la Organización Europea para la Investigación Nuclear, (CERN).

Dotcom: “Hola, España. Sinde va a morir. Mega va a volver”


Si la semana pasada veíamos a Kim Dotcom, el polémico y famoso fundador de Megaupload, celebrar en Twitter el rechazo que el Parlamento Europeo daba a ACTA, ahora la noticia es ley antidescargas española, mejor conocida como Ley Sinde, por el apellido de su promotora, la ex ministra de Cultura de España, Ángeles González Sinde:

En perfecto español, el alemán fundador de Megaupload expresaba, desde su cuenta en la red social de los 140 caracteres: “Hola, España. Sinde va a morir. Mega va a volver. Y la libertad prevalecerá. Únete a mí”.

Dotcom se ha pasado buena parte del fin de semana anunciando a través de su cuenta la vuelta de Megaupload, dedicando mensajes especiales a España, donde desde marzo la Ley Sinde está en acción y ya ha comenzado a aplicarse; y a Francia, donde a través de un tweet en francés anunciaba la muerte de la Ley Hadopi, la versión de Sinde el país galo.

¿A qué se refiere Dotcom cuando promete la vuelta de Megaupload? Es difícil saberlo a ciencia cierta, porque no ha dado más que estas “pistas” de 140 caracteres que no dicen mucho, y si bien conocimos hace un tiempo su proyecto MegaBox , enfocado principalmente en el mundo de la música, no podemos asegurar que le esté dando una vuelta para renacer con el la plataforma de almacenamiento que anhelamos…

Cuestión de armarse de paciencia y esperar a que las palabras de Dotcom, que creo expresan el deseo de millones de internautas, se conviertan pronto en realidad. Amén.

Conoce como el Perú se conecta a Internet


Tres cables de fibra óptica permiten que Perú esté conectado a Internet, así lo demuestra un mapa interactivo que muestra el cableado mediante el cual el mundo puede mantenerse conectado y trasferir datos en unas milésimas de segundos.

Según informa Infobae, el mapa revela la radiografía de los cables que pasan por debajo de los océanos. Así por ejemplo, South American 1 es uno de los cables que permite que Sudamérica pueda estar conectado. Se inicia en Chile, pasa por Perú, continúa por Panamá, República Dominicana, Venezuela, Brasil, y Argentina. En medio existen subconexiones que enlazan Ecuador, Colombia, Paraguay, Uruguay, etc.

Perú dispone de otros dos enlaces. SAC, que conecta el litoral de nuestro continente desde Santiago, Lima y Panamá (luego este se une con México y Estados Unidos). Finalmente, Sam-1 que refuerza el ingreso “desde Valparaíso y Arica, en Chile, pasa por Perú, Ecuador y Guatemala, da la vuelta por Florida en EE.UU., Colombia y República Dominicana y termina en Brasil y la Argentina”.

El mapa interactivo Submarine CableMap de 2012, hecho con la colaboración de Telecom Egipto, muestra las conexiones de todo el planeta.

¿Qué es la "Partícula de Dios" y cuál es su real importancia?


Los científicos del centro de investigación CERN, en Suiza, presentaron el miércoles sus últimos hallazgos en la búsqueda del bosón de Higgs, una partícula subatómica clave en la formación de estrellas, planetas y eventualmente de vida, tras el Big Bang de hace 13.700 millones de años.

¿Qué es el Bosón de Higgs?
Esta partícula es la última pieza que falta en el Modelo Estándar, la teoría que describe la formación básica del universo. Las otras 11 partículas que se predecían en el modelo ya se han encontrado, y hallar el Higgs validaría el modelo. Descartarla o encontrar algo más exótico obligaría a revisar nuestra comprensión de cómo se estructura el universo.

Los científicos creen que en la primera billonésima de segundo tras el Big Bang, el universo era una gran sopa de partículas avanzando en distintas direcciones a la velocidad de la luz, sin ninguna masa apreciable. Fue a través de su interacción con el campo de Higgs como ganaron masa y, con el tiempo, formaron el universo.

El campo de Higgs es un campo de energía teórico e invisible que invade todo el cosmos. Algunas partículas, como los fotones que componen la luz, no se ven afectadas por él y por lo tanto no tienen masa. A otras las cubre, produciendo un efecto similar al de los cereales reunidos en una cuchara.

Esa partícula es teórica, y su existencia fue propuesta en 1964 por seis físicos, entre los que estaba el británico Peter Higgs. Su búsqueda comenzó a principios de los 80, primero en el ahora cerrado colisionador de partículas Tevatron del Fermilab, cerca de Chicago, y más tarde en una máquina similar en el CERN. La investigación se intensificó a partir de 2010, cuando se puso en marcha el Gran Colisionador de Hadrones del centro europeo.

¿Qué es el modelo estándar?
El Modelo Estándar es a los físicos lo que la teoría de la evolución es a la biología. Es la mejor explicación que ha encontrado la física sobre cómo se estructuran los elementos que forman el universo. Describe 12 partículas fundamentales, gobernadas por cuatro fuerzas básicas.

Pero el universo es un enorme lugar y el Modelo Estándar sólo explica una pequeña parte de él. Los científicos han identificado una distancia entre lo que podemos ver y lo que debe haber ahí. Esa distancia debe llenarla algo que no comprendemos por completo, a lo que han bautizado como “materia oscura”.

Además, las galaxias se van distanciando unas de otras más deprisa de lo que deberían según las fuerzas que sí conocemos. Esta otra incógnita la explica la “energía oscura”. Se cree que la materia y la energía oscura, de las que entendemos muy poco, suponen el 96 por ciento de la masa y la energía del cosmos.

Confirmar el Modelo Estándar, o quizá modificarlo, sería un paso hacia el santo grial de la física, una “teoría de todo”, que incluya la materia oscura, la energía oscura y la fuerza de gravedad, que el Modelo Estándar tampoco explica. Además, podría arrojar luz sobre ideas aún más esotéricas, como la posibilidad de los universos paralelos.

El portavoz del CERN, James Gillies, ha dicho que al igual que las teorías de Albert Einstein desarrollaron y construyeron sobre la obra de Isaac Newton, el trabajo que hacen ahora los miles de físicos del CERN tiene el potencial de hacer lo mismo con la obra de Einstein.

Descubren la partícula de Dios, que explica como se forma la materia


La Organización Europea para la Investigación Nuclear (CERN) acaba de escribir un capítulo crucial en la historia de la Física, al descubrir una nueva partícula subatómica que confirma con más de un 99% de probabilidad la existencia del bosón de Higgs, conocido popularmente como la 'partícula de Dios', un hallazgo fundamental para explicar por qué existe la materia tal y como la conocemos.

Con los resultados presentados hoy, la existencia del bosón de Higgs -la partícula subatómica teorizada por el físico británico Peter Higgs en los años sesenta, y que supone el único ingrediente del Modelo Estándar de la Física que aún no se había demostrado experimentalmente- es prácticamente un hecho.

Si no fuera por el bosón de Higgs, las partículas fundamentales de las que se compone todo, desde un grano de arena hasta las personas, los planetas y las galaxias, viajarían por el Cosmos a la velocidad de la luz, y el Universo no se habría 'coagulado' para formar materia. Por ese motivo, el editor del físico Leon Lederman creyó oportuno cambiar el título de su libro llamado originalmente 'The goddamn particle' ('La puñetera partícula') por el de 'The God particle' (La 'partícula Dios', aunque popularmente se ha traducido como 'la partícula de Dios').


En 1964, Higgs describió con la sola ayuda de un lápiz y un papel las ecuaciones que predicen la existencia de una partícula nunca vista, pero necesaria para que funcione el Modelo Estándar sobre el que se basa la física actual. Es la partícula fundamental de lo que se conoce como el mecanismo de Higgs, una especie de campo invisible presente en todos y cada uno de los rincones del universo y que hace que las partículas inmersas en él tengan masa.

El bosón de Higgs es el componente fundamental de ese campo, de la misma manera que el fotón es el componente fundamental de la luz. Si la 'partícula de Dios' no existiera, tampoco existiría nada material en el Universo. "Puedo confirmar que se ha descubierto una partícula que es consistente con la teoría del bosón de Higgs", explicó John Womersley, director ejecutivo del Consejo de Tecnología y Ciencia del Reino Unido, durante una presentación del hallazgo en Londres.

Joe Incandela, portavoz de uno de los dos equipos que trabajan en la búsqueda de la partícula de Higgs, aseguró que "se trata de un resultado todavía preliminar, pero creemos que es muy fuerte y muy sólido". Tras terminar su presentación, el estruendoso aplauso en el auditorio no cesaba a pesar de que Incandela trataba de pedir la palabra para agradecer a toda la organización la colaboración y el ambiente científico donde ha podido desarrollar su investigación.

Nervios y emoción
En el auditorio estaba presente el propio Peter Higgs, con cuyo apellido se bautizó al mítico bosón, quien no pudo contener las lágrimas al escuchar los resultados que han confirmado su teoría. "Sólo quiero dar las gracias a todas las personas que han estado relacionadas con este trabajo. Es lo mas increíble que me ha pasado en toda la vida", aseguró el científico emocionado.

La presentación de estos resultados ha tenido lugar en la Conferencia Internacional de Física de Altas Energías (ICHEP 2012) que se celebra en Melbourne (Australia), donde se están exponiendo los resultados obtenidos por los experimentos ATLAS y CMS del Gran Colisionador de Hadrones (LHC) en 2012. El director del CERN, Rolf Heuer, ha comenzado la conferencia nervioso y ha afirmado que "hoy es un día muy especial en todos los sentidos".

ATLAS, uno de los dos experimentos del CERN que busca el bosón de Higgs, ha confirmado la observación de una nueva partícula a un nivel de 5 sigma (una forma de medir la probabilidad de que los resultados sean ciertos que ronda el 100%). Esta medición implica que la probabilidad de error es de tres en un millón, una cifra que, oficialmente, es suficiente para dar por confirmado un descubrimiento. "Es dificil no estar emocionado con estos resultados", ha dicho Sergio Bertolucci, director de investigación del CERN. "Con toda la precaución necesaria, me parece que estamos en un punto rompedor". "Es un hito histórico, pero estamos solo al principio", ha declarado por su parte Heuer, el director del CERN.

Muy cerca del objetivo
Los datos del CERN no son todavía tan concluyentes como para poder afirmar con total certeza que han encontrado la 'particula de Dios', pero están realmente cerca de alcanzar ese objetivo. "Hemos encontrado un nuevo bosón con una masa de 125,3 gigaelectrónvoltios (una medida usada por los fisicos para cuantificar masas muy pequeñas), con un grado de consistencia de 4,9 sigma. Estamos de acuerdo con el modelo estándar en un 95%, pero necesitamos más datos", explicó Icandela.

"Observamos en nuestros datos claros signos de una nueva partícula, con un nivel de confianza estadística de 5 sigma (superior al 99,99994%), en la región de masas de alrededor de 125 gigaelectrónvoltios. El excepcional funcionamiento del LHC y ATLAS, y los enormes esfuerzos de mucha gente, nos han llevado a esta emocionante etapa", asegura la portavoz del experimento ATLAS, Fabiola Gianotti, "pero se necesita un poco más de tiempo para preparar estos resultados para su publicación".

El portavoz del experimento CMS, Joe Incandela, explica: "Los resultados son preliminares, pero la señal de 5 sigma alrededor de 125 gigaelectrónvoltios que estamos viendo es dramática. Es realmente una nueva partícula. Sabemos que debe ser un bosón y es el bosón más pesado jamás encontrado". Para Incandela, "las implicaciones son muy significativas y es precisamente por esta razón por lo que es preciso ser extremadamente diligentes en todos los estudios y comprobaciones".
Gran expectación

El pasado mes de diciembre ya se habló de un posible anuncio del CERN. En aquella ocasión los expertos señalaron que se "había cerrado el cerco" en torno a la partícula, por lo que ya estaban más cerca de encontrarla. Además, el director general del CERN, Rolf Heuer, señaló la semana pasada que ya podría haber datos "suficientes" para hallar el Bosón de Higgs. En un artículo en 'The Bulletin', Heuer indicó que "hallar el Bosón de Higgs es una posibilidad real y que, a menos de dos semanas para que se celebre la conferencia ICHEP, la noticias de los experimentos se esperado ansiosamente".

A pesar de estas palabras, Heuer ha pedido a la comunidad científica que tenga "un poco más de paciencia". En este sentido, recordó que aunque ATLAS o CMS muestren datos que supongan el descubrimiento de la partícula "siempre se necesita tiempo para saber si es el Bosón de Higgs buscado durante mucho tiempo -el último ingrediente que falta en el Modelo Estándar de física de partículas- o si se trata de una forma más exótica de esta partícula de que podría abrir la puerta a una nueva física".
Nivel de certeza

Los físicos de partículas mantienen un consenso general acerca de lo que se puede considerar un 'descubrimiento': un nivel de certeza de 5 sigmas. La cantidad de sigmas mide la improbabilidad de obtener un resultado experimental fruto de la suerte en lugar de provenir de un efecto real.

Se suele poner como ejemplo el lanzamiento de una moneda al aire y ver cuántas veces sale cara. Por ejemplo, 3 sigmas representarían una desviación de la media equivalente a obtener ocho caras en ocho lanzamientos seguidos. Y 5 sigmas, 20 caras en 20 lanzamientos.

La toma de datos para la ICHEP 2012 concluyó el lunes 18 de junio después de un "exitoso primer periodo" de funcionamiento del LHC durante este año, según ha explicado del CERN. Precisamente, Heuer ha señalado que es el "impresionante trabajo" que ha tenido el LHC en 2012 lo que "ha elevado las expectativas de cara a un descubrimiento".

El equipo de expertos que trabaja para la organización en Ginebra ha diseñado la actividad del LHC para el primer periodo de 2012 de manera que obtuviera la máxima cantidad de datos posibles antes de que se celebrara el ICHEP. De hecho, se han obtenido más datos entre abril y junio de este año que en todo 2011. "La estrategia ha sido un éxito", ha indicado el director general del CERN.

Recibenos en tú E-Mail

---

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Bluehost Review