Tecnologia_Jona

lunes, febrero 26, 2007

Rizomas

Investigan como conseguir que una persona sea capaz de transmitir ordenes desde el cerebro hasta un protesis mediante cyborg.



http://rizomas.blogspot.com/

7 de Junio de 2007

El 7 de junio de 2007 quieren concertar un huelga internacional, no quieren ni que consumamos, ni trabajemo
http://www.youtube.com/watch?v=EwHlbBbZNT4s.

El blog de Pablo Macini

http://www.pablomancini.com.ar/?s=feevy

Videos de YOUTUBE.COM

Para poner un video de youtube.com hay que aplicar lo siguiente en el codigo html.
data="http://www.youtube.com/v/XXXXXXXXXXX">
value="http://www.youtube.com/v/XXXXXXXXXXX" />

donde las XXXXXXXXXXXXX se sustituyen por la cadena del vídeo correspondiente.

http://www.noseque.net/wordpress/2006/05/21/como-poner-un-video-de-youtube-xhtml-valido/

¿Que es Software libre?

Lo que el video nos quiere decir o enseñar es que aprendemos mas si estamos unidos, mejoramos las cosas si cada persona pone un poco de lo que sabe, somos mejores y mas rapidos si lo hacemos juntos. El video nos quiere enseñar que entre todos podemos crear un software libre, en que cada persona puede intentar mejorarlo ya que dispone de un codigo. El video esta contra todo el software que compramos y no nos dejan ver su codigo, que nos vigilan a traves de el y nos prohiben hacer ciertas cosas.

domingo, enero 28, 2007

Nuevo Tuneup 2007

Novedades en TuneUp Utilities 2007
Con respecto a la versión anterior, hemos revisado TuneUp Utilities 2007 por completo y complementado considerablemente las funciones.
Mediante el nuevo TuneUp Utilities 2007 conseguirá que su Windows sea mucho más rápido, cómodo y seguro que antes. La configuración del sistema, así como la seguridad, la limpieza y el mantenimiento se pueden llevar a cabo y controlar sin dificultades a través de una interfaz de usuario intuitiva; todo ello en un programa, de un vistazo, y de forma sencilla.

TuneUp Utilities 2007 - Ventajas
¡NUEVO! TuneUp Disk Doctor: Examina con detalle los discos duros; elimina errores del sistema de archivos y de los sectores y, de este modo, se encarga de la seguridad de los datos necesaria.
¡NUEVO! TuneUp Disk Space Explorer: Identifica con precisión los archivos y grupos de archivos que ocupan más espacio en los discos duros.
¡MEJORADO! TuneUp System Control: Ahora ofrece también posibilidades de configuración adicionales para Internet Explorer 7, Firefox 2 y Office 2007
¡MEJORADO! Mantenimiento con 1 clic: Posibilita una comprobación del sistema y una eliminación de errores todavía más minuciosa con sólo un clic.
¡MEJORADO! TuneUp DiskCleaner: Encuentra otros tipos de archivos innecesarios y consigue más espacio libre.
¡MEJORADO! TuneUp RegistryCleaner: Mediante una tecnología de escaneo mejorada de nuevo, localiza determinadas entradas innecesarias del registro de Windows y las elimina de forma eficaz.
Garantía de futuro para Windows Vista™: Incluye una autorización para la actualización en línea gratuita de TuneUp Utilities 2007 para Windows Vista™.

http://www.tuneup.es/

lunes, noviembre 27, 2006

Quad Core

La avalancha de noticias en el terreno de los microprocesadores nos ha animado a realizar un artículo en el que trataremos de analizar la situación actual de este mercado. La aparición del primer procesador quad-core de Intel, el Kentsfield, ha acelerado el mercado, y la contrapartida de AMD, la plataforma 4x4, está a punto de presentarse públicamente.

Parece mentira que en apenas un año hayamos pasado de la primera y casi ineficiente versión de los Intel Core Duo a los micros con núcleo Kentsfield que acaban de ser presentados y que multiplican en varios enteros el rendimiento de esas soluciones iniciales en el segmento de los micros dual-core.

Esta situación le ha complicado las cosas a los usuarios, que se encuentran con un sinfín de posibilidades a la hora de adquirir un microprocesador. El precio ya no es un factor tan determinante como lo era antes, y es que la contínua renovación de los modelos hace pensar a más de uno en esperar, y no comprar tan rápido.

Creemos que es especialmente útil una clarificación de lo que ya tenemos en nuestras manos, y de lo que llegará en los próximos meses para apreciar con más detalle en qué estado se encuentran tanto Intel como AMD, y para ello repasaremos los distintos modelos de procesadores disponibles, destacando especialmente los más novedosos.

Micros mononúcleo, siguiendo la tradición

Es evidente que la era monocore aún estará con nosotros algún tiempo, ya que AMD e Intel siguen vendiendo estos micros a gran escala gracias al tremendo abaratamiento que han sufrido. También se centran en ellos (sobre todo AMD) para los procesadores portátiles, pero también es evidente que el paso a dual-core ya se ha realizado y que la existencia de procesadores con un solo núcleo para PCs y portátiles pronto será cosa del pasado, al menos en la informática de consumo generalista.

pentium4_pres.jpg

El 12 de abril de 2005 Intel presentó por primera vez procesadores x86 dual-core, mientras que AMD haría lo propio con sus Athlon 64 X2 a las pocas semanas, el 31 de mayo. Estos microprocesadores sentaron las primeras bases de la era multicore, pero tenían (y tienen) una desventaja clara: sólo cambiaban los microprocesadores, y no la microarquitectura.

Dos mejor que uno

Intel trataría de solucionarlo con la aparición de los procesadores Intel Core en enero de 2006, pero el verdadero cambio llegó con el ya citado cambio de microarquitectura a Intel Core 2 a finales de julio de 2006. Este cambio supuso la aparición de los procesadores Conroe (sobremesa, con una versión Extreme llamada Conroe XE) y Merom (portátiles), a los que pronto acompañarán los Allendale (versiones recortadas de Conroe).

Intel-Core2Duo-Conroe.jpg

Esos procesadores han marcado un punto de inflexión en la batalla entre Intel y AMD. Hasta entonces la reputación de AMD era clara: la mejora calidad precio/prestaciones había sido para ella. Sin embargo, los Intel Core 2 Duo han cambiado las cosas, y ahora, a no ser que la diferencia de precios sea muy abultada, la recomendación es clara hacia estos micros de Intel.

AMD dio el salto a dual-core también en 2005, pero a diferencia de Intel no ha realizado grandes cambios en su microarquitectura. No lo necesitaba, ya que su concepción inicial era la que Intel ha logrado con Intel Core: en el mismo chip existían dos núcleos, lo que convertía a este procesador en un dual-core “puro”. Los primeros Intel con dos núcleos eran en realidad dos chips encapsulados en el mismo packaging. Lo mismo que ha ocurrido con Kentsfield, del que hablamos más adelante.

AMDAthlon64X2.jpg

Esa ventaja arquitectural ha sido, junto a otras ventajas internas (como la integración de la controladora de memoria en el procesador, o la eficiencia del bus HyperTransport) la causa de que AMD haya podido tener margen suficiente para seguir liderando esa relación precio/prestaciones durante un año, justo hasta el lanzamiento de los citados Conroe. Desde entonces, y pese a los esfuerzos de AMD por lanzar micros más potentes, la superioridad de la microarquitectura Intel Core 2 frente a la x86-64 de AMD ha sido evidente en todas los análisis técnicos realizados.

Para contrarrestar esa ventaja AMD confirmó en julio de este año la aparición de la arquitectura K8L, que se producirá a mediados de 2007. Aunque originalmente los planes son los de utilizarla para micros Opteron quad-core puros (Barcelona es el nombre en código de los primeros, que aparecerán en verano de 2007), parece que los nuevos microprocesadores no solo contarán con cuatro núcleos orientados a máquinas servidoras (Barcelona/Budapest/Shanghai), sino que también habrá configuraciones para workstations y ordenadores de sobremesa de gama alta (Altair), e incluso dual-core (Arcturus/Brisbane) y mono-core (Sparta).

Llega quad-core

Para asestar un golpe más a AMD, Intel se apresuró recientemente a presentar oficialmente sus procesadores quad-core, denominados Kentsfield. La aproximación es, como ya hemos comentado anteriormente, la misma que siguió Intel con sus primeros procesadores de doble núcleo. Presler no era más que la unión de dos núcleos/dies Cedar Mill (la última revisión en 65 nanos de los P4) en un mismo packaging, mientras que los Kentsfield son la unión de dos núcleos/dies Conroe.

kentsfield.jpg

Muchos califican a esta solución como algo “chapucera”, pero lo cierto es que permite llegar al mercado rápidamente sin enfrascarse en unas complejidades de diseño que se pueden dejar para más tarde. A Intel le ha funcionado muy bien esa filosofía con sus micros Intel Core 2 Duo, y parece que ocurrirá lo mismo con estos microprocesadores de cuatro núcleos, verdaderos monstruos de la computación.

Por su parte, AMD ha tenido que cambiar sensiblemente sus planes originales en el mercado de los microprocesadores de cuatro núcleos. Aunque su apuesta inicial estaba orientada únicamente al lanzamiento de procesadores quad-core puros con la futura arquitectura K8L, la presentación de Kentsfield ha modificado ese roadmap, y AMD se ha apresurado a hablar de su solución competitiva: la plataforma 4x4, también denominada QuadFather. Esta plataforma es en esencia la alternativa de AMD a Kentsfield, aunque su puesta en escena es distinta.

k8l_4x4.gif

Así, mientras que el Kentsfield de Intel usa un mismo socket (de hecho, esos micros son compatibles con las placas actuales para Intel Core 2 Duo) en AMD hacen uso de dos Sockets independientes, que eso sí, harán buen uso de la potencia del bus HyperTransport para comunicarse. Esto permitirá no sólo emplear micros dual-core para contar con una plataforma quad-core muy potente, sino que también dará opción a utilizar dos micros quad-core nativos en un futuro, dando como resultado una máquina con ocho núcleos, algo que casi podríamos calificar de supercomputador… o al menos así sería hace pocos años.

Pero como comentábamos, la verdadera apuesta de AMD llegará con su arquitectura Quad-Core, nombre definitivo para diferenciarla de lo que ellos llaman Dual-Die (Kentsfield). En realidad, esta plataforma está muy enfocada a servidores, y sus procesadores Opteron con nombre clave Deerhound tratarán de barrer del mercado a la alternativa de Intel, Clovertown, que es como el hermano mayor de Kentsfield, ya que en lugar de dos Conroe integra dos Woodcrest.

k8l_closeup.gif

Las características de estos microprocesadores son muy prometedoras: con un consumo de 95W (habrá que verlo) los futuros procesadores fabricados en 65 y 45 nanómetros usarán el nuevo Socket F (1207 pines) e integrarán 64 KB de cache L1 por núcleo, 512 KB de cache L2 por núcleo y otros 2 MB de caché L3 compartidos entre los cuatro núcleos.

k8l_cache.gif

De lo que aún no tenemos noticia es de una arquitectura quad-core nativa por parte de Intel, que por el momento parece estar más que contenta con el desarrollo de sus soluciones basadas en la arquitectura Intel Core 2.

Rendimiento y consumo, factores críticos

Como reza el anuncio, la potencia sin control no sirve de nada. Y lo cierto es que los procesadores Kentsfield son, por el momento, poco útiles, como también lo serán los inminentes micros FX-70, FX-72 y FX-74 que AMD presentará como abanderados de su nuva plataforma 4x4.

El motivo de esta afirmación es claro: existen muy pocas aplicaciones capaces de proporcionar las ventajas que aprovechen la gran cantidad de hilos de ejecución que pueden manejar estos sistemas. Ni siquiera es apreciable una mejora notable en el rendmiento multitarea. En las pruebas realizadas por varios portales técnicos, las conclusiones de los técnicos eran siempre las mismas: actualmente tanto los Athlon 64 x2 como los Intel Core 2 Duo son más que capaces de manejar una gran carga de trabajo sin despeinarse.

core-2-quadro-425.jpg

Las únicas aplicaciones que sí ganan en prestaciones son las dedicadas a tareas muy exigentes en las que los programadores llevan tiempo aplicando los principios de la programación concurrente y multihilo. La edición de vídeo y, sobre todo, las aplicaciones de diseño y renderizado en 3D son las mejores aliadas de unos sistemas que aquí sí muestran sus virtudes, con un rendimiento excepcional.

El otro gran apartado en el que hay que fijarse a la hora de considerar la compra de estos sistemas es el consumo energético, y más concretamente, la eficiencia energética: la concepción actual de Kentsfield impide tratar el consumo de los procesadores y de sus núcleos de forma independiente, de forma que si alguno de ellos está desocupado, sigue gastando la misma energía que si estuviese funcionando a toda potencia. Lo ideal sería controlar de forma independiente tanto la frecuencia de reloj de cada núcleo como el voltaje utilizado en cada uno de ellos, una opción aún más interesante. Parece que la plataforma 4x4 tampoco soportará este tipo de mejoras, pero al menos Barcelona dará opción para la personalización de la frecuencia de reloj de los núcleos.

performancevp42.jpg

Es evidente que en esa eficiencia influye notablemente el software, y aquí tenemos que hacer culpables de la “baja eficiencia” de estos procesadores a los desarrolladores software. Las aplicaciones actuales (incluidos los juegos, teóricos objetivos de los usuarios de estas bestias) no son capaces de ofrecer mucho más rendimiento en plataformas quad-core frente a las dual-core, por lo que es probable que hasta finales de 2007 no empecemos a apreciar realmente de lo que son capaces estos súperprocesadores.

Hasta entonces, nuestra recomendación es esperar. Los micros dual-core ofrecen excelentes prestaciones, y está claro que la relación calidad-precio es muy superior a la que podrán ofrecer a corto plazo los sistemas configurados con los Kentsfield de Intel o los FX-70/72/74 de AMD.

miércoles, noviembre 15, 2006

Pentium D 945 3,4ghz 4mb de cache

Niko, q vaya cayo de pc q me e montado es un Intel Pentium D 945 a 3,4ghz y 4mb de cache. Aunque esta overclokeado a 3,8ghz. es una makina niko jajaja.

Placa Base
-Asrock 775Dual-VSTA
Micro
-Intel Pentium D 945 4mb de cache y 3,4ghz (overclock a 3,8ghz)
Memoria Ram
-2x512mb Kingston DDR 400mhz (overclock a 450mhz)

Es una makina Niko, ya te subire las comparaciones de velocidad y esas cosas, jaja.
Adios anda q toy actualizando el Blog.

lunes, octubre 16, 2006

El Internet, no vale un duro

Seguimos con el mismo problema, la conexion a internet en clase es demasiado lenta. En una hora solo e podio abrir 4 paginas web y hacer esto, asin no podemos trabajar. Bueno adios y aver si se soluciona el problema.

martes, junio 13, 2006

PodCasting

El podcasting consiste en crear archivos de sonido (generalmente en ogg o mp3) y distribuirlos mediante un archivo RSS de manera que permita suscribirse y usar un programa que lo descargue para que el usuario lo escuche en el momento que quiera, generalmente en un reproductor portátil.

Tabla de contenidos

[ocultar]

Origen del término

El término podcasting surge como el acrónimo de las palabras public on demand y cast. Y es que ésta es la idea general del podcast: una emisión pública descargada según demanda. Se trata de archivos de audio que se pueden escuchar con cualquier reproductor compatible con los distintos formatos existentes: mp3, ogg, etc. Un error muy común es creer que la palabra la creó Apple como combinación de iPod y broadcasting. Nada más lejos de la realidad, pues los podcasts existían desde bastante antes que los iPod.

Contenidos de un podcast

Un podcast se asemeja a una suscripción a una revista hablada en la que recibimos los programas a través de Internet. También una ventaja del podcast es la posibilidad de escuchar en lugares sin cobertura.

Su contenido es diverso, pero suele ser un weblogger hablando sobre diversos temas. Esta es la definición base. Ahora bien, puede ser ampliada de diferentes maneras. Hay podcasts sobre diversos temas, sobre todo tecnológicos. Mucha gente prefiere usar un guión y otros hablan a capella y de forma improvisada. Algunos parecen un programa de radio, intercalando música, mientras que otros hacen podcasts más cortos y exclusivamente con voz, igual que con los weblogs.

¿Cómo se escucha un podcast?

Primero hay que descargar el archivo de sonido. A partir de ahí, es algo personal. Se pueden usar programas especiales que leen archivos de índices, descargan la música automáticamente y la transfieren a un reproductor mp3. También se puede optar por escucharlo en el ordenador e incluso, copiarlo en CDs de audio a partir de los archivos mp3 u ogg, dependiendo del formato original.

También se pueden escuchar los Podcast con herramientas como Odeo que permiten suscribirse a los autores de Podcast preferidos o bajarlos y escucharlos en la computadora, o a través de películas en Flash que simulan el streaming y cargan los archivos MP3 externos.

Otros programas que permiten escucharlos son Doppler, disponible solo en inglés y con una interfaz muy sencilla; e Ipodder, ahora llamado Juice, disponible en español y también muy útil.

El día 28 de junio de 2005 Apple lanzó iTunes 4.9 con soporte para Podcasting.

¿Cuántos podcasts hay?

En inglés, unos 4.600 según datos de iPodder.org. En castellano, hay más de 200 según PodCastellano.com y Podcast-es.org.

Mucha gente tiene problemas para alojar estos archivos tan grandes y que saturan tanto el ancho de banda. Afortunadamente existen opciones de alojamiento especializadas en podcasting y proyectos como Internet_Archive. También se están empezando a usar tecnologías de distribución de archivos mediante las redes bittorrent y ED2K (emule, eDonkey, MLDonkey, etc.) pero no son tan populares.

La mayoría de programas especializados permiten bajarlo de forma automática, ya sea de una web o de la red bittorrent.

Enlaces externos

En español

  • Wiki de podcast-es, donde hay disponible un listado de todos los podcast en castellano y recursos sobre cómo hacerlos y cómo escucharlos. También hay podcast en lenguas autóctonas como el euskera o el catalán.
  • PodCastellano con información, noticias, preguntas frecuentes, documentación, directorio, foros y ayuda sobre podcasting en español.
  • Podcast Argentina, sitio donde se listan podcast castellano y en especial de Argentina.
  • Como hacer un podcast, explicación detallada con enlaces para realizar un podcast gratis.
  • folcast directorio de podcast folcsonómico (clasificación mediante etiquetas). Permite crear listas de reproducción personalizadas en formato RSS y obtener archivos RSS de grupos de etiquetas.
  • Podsonoro directorio y buscador de podcasts en castellano.
  • PodcastinGuatemala directorio de podcasts en castellano producidos en Guatemala.
  • Podcaster directorio de podcasts gratuitos en Chile.

martes, febrero 14, 2006

Serials

Si os hace falta algun tipo del Serial, meterse en www.seriall.com y si os hacen falta craks en www.cracks.am. Si son medianamente conocios los programas los cracks y lo seriall estan ahi. solo tienen un inconveniente que las 2 webs estan en ingles.

NanoTecnologia

Introduccion
La revolución nanotecnológica, se asocia, por una parte, a la "fabricación molecular" cuya viabilidad tendría un impacto enorme en nuestras vidas, en las economías, los países y en la sociedad en general en un futuro no lejano. Entre los efectos, destacan sus potenciales impactos en la medicina, la biología, el medioambiente, la informática, la construcción... En la actualidad los principales avances prácticos ya se dan en algunos campos: nanopartículas, nanotubos... Los progresos -más cuestionados- en materia de nanorobots y autoreproducción son objeto de polémica entre los expertos... Lo que no cabe duda es que la revolución ha comenzado. Y también el debate sobre sus beneficios y riesgos. En euroresidentes queremos contribuir a difundir toda la información útil a los interesados en un tema de la mayor relevancia científica y social.

Nanotechnology (término inglés) ¿Qué es? concepto, definición, significado...
La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman (Breve cronología - historia de la nanotecnología).
La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
Esta nuevas estructuras con precisión atómica, tales como nanotubos de carbón, o pequeños instrumentos para el interior del cuerpo humano pueden introducirnos en una nueva era, tal como señala Charles Vest (ex-presidente del MIT). Los avances nanotecnológicos protagonizarían de esta forma la sociedad del conocimiento con multitud de desarrollos con una gran repercusión en su instrumentación empresarial y social.
La nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la"nanotecnología molecular", esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation" introdujo las promesas y peligros de la manipulación molecular. Actualmente preside el Foresight Institute.
El padre de la "nanociencia", es considerado Richard Feynman, premio Nóbel de Física, quién en 1959 propuso fabricar productos en base a un reordenamiento de átomos y moléculas. En 1959, el gran físico escribió un artículo que analizaba cómo los ordenadores trabajando con átomos individuales podrían consumir poquísima energía y conseguir velocidades asombrosas.
Existe un gran consenso en que la nanotecnología nos llevará a una segunda revolución industrial en el siglo XXI tal como anunció hace unos años, Charles Vest (ex-presidente del MIT).
Supondrá numerosos avances para muchas industrias y nuevos materiales con propiedades extraordinarias (desarrollar materiales más fuertes que el acero pero con solamente diez por ciento el peso), nuevas aplicaciones informáticas con componentes increíblemente más rápidos o sensores moleculares capaces de detectar y destruir células cancerígenas en las partes más dedlicadas del cuerpo humano como el cerebro, entre otras muchas aplicaciones.
Podemos decir que muchos progresos de la nanociencia estarán entre los grandes avances tecnológicos que cambiarán el mundo.

Mas de 60 articulos de nuevos avances en NanoTecnologhia y NanoCiencia