clave

Última Entrada: En Algarrobo, el Jueves 28 de Marzo del 2024 a las 15:51:13

InicioCorréoControlContactoIngresar

MATERIAS

Administración Agricultura Arqueología Arquitectura Astronomía Biología Ciencia Cine Cocina Cultura Deportes Derecho Diseño Economía Educación Filosofía Física Fotografía Geografía Geología Historia Humor Informática Ingeniería Juegos Lenguaje Leyendas Literatura Matemáticas Mecánica Medicina Música Naturaleza Periodismo Pintura Poesía Política Química Religion Robótica Teatro




cambiar estilo



cambiar estilo

Mostrar:

posts



Se necesita:
obtener programaobtener complementoobtener programa
obtener programa  obtener programa



Ícono de conformidad con el Nivel Triple-A, de las Directrices de Accesibilidad para el Contenido Web 1.0 del W3C-WAI

Ícono de verificacción de estándares SSL

ESRB



afiche

afiche

afiche

afiche

afiche

afiche

afiche



 

Buscar en texto?

Buscar

Captcha: Estricto?


22-01-2020

Dirección Mediática

El diario el Mercurio de Valparaíso de hoy, en la sección de Tecnología destaca dos publicaciones, la primera en la parte superior, se muestra la cara de un ejecutivo de Google diciendo "La intelegiencia artificial debe ser regulada" al menos sorpresa es lo que nos deja su comentario, después de todo pocas empresas que explotan un mercado piden regulaciones.

En la parte inferior, aparece un espacio publicitario a lo que algunos denominan SpaceX, para mi, si no lo han notado es una empresa de papel de dudosa procedencia, y con directores muy poco experimentados. Lo que la publicación trata de informar es que la cápsula de Boeing bajo contrato con la NASA y pagada por los contribuyentes norteamericanos resultó mejor que el lanzamiento anterior. Siendo este el primer lanzamiento satisfactorio podría ser parte de los próximos lanzamientos tripulados.

compartir imprimirimprimir

Pablo Rodríguez R.


20-01-2020

Volviendo Atrás

A diferencia de los computadores portátiles, los equipos de escritorio ó sobremesa están diseñados según la placa madre que se elija, para poder incorporar múltiples discos de almacenamiento, instalar tarjetas de comunicación secundarias, controladoras de bus y la capacidad de utilizar más de una placa gráfica.

Hace muchos años atrás, salieron al mercado placas aceleradoras gráficas, ellas no mantenían puertos de salida de vidéo y su misión era ayudar en el renderizado y procesamiento de vidéo, sin conexión SLI ó CrossFire solo con una instalación correcta, el sistema -supuestamente- mejoraba. Hoy prácticamente extintas se optó por establecer puertos específicos de alta velocidad llamados PCIex que permiten la comunicación entre ellas y la unidad central de procesos (UCP) a alta velocidad.

Existen entre dos y tres ranuras en las de alta gama que permiten la creación de un arreglo en serie entre ellas. Les he comentado los problemas que he tenido con un arreglo de dos, pero vale la pena destacar que los problemas se han incrementado y no disminuido.

En estricto rigor, no es necesario que las tarjetas séan interconectadas entre si. El sistema operativo solía ser lo suficientemente adaptable como para reconocer cada una de ellas y establecer un mecanismo de trabajo. Mi problema siempre radicó en que si conecto todos los monitores a una de ellas, los recursos y el trabajo se realiza casi por completo en aquella dejando muy poco a las demás. Este comportamiento me explicó en aquel entonces, que el sistema no solía hacer mucho por si mismo.

El manejo de errores por controladores firmados de las compañías desarrolladoras es precario, solicitando cambios de paleta de colores, congelando el sistema operativo e incluso reiniciándolo por temperatura sin ninguna explicación de lo ocurrido, ni solicitudes de baja de texturas para aminorar su uso. Simplemente llegando al límite donde el sistema no puede responder.

En cuanto a la autonomía que mantiene una placa gráfica, no puedo dar fé que pueda manejar los recursos disponibles -en mi caso- llamados NVidia "Cuda Cores" ó la memoria que mantiene de forma dedicada cada tarjeta. Tampoco evidencio un uso inteligente de los ventiladores ni de resultados de sensores de temperatura en sus unidades de proceso gráfico (UPG). Solo un pequeño panel indicativo de existen, que están conectadas y la resolución de las salidas de pantalla.

Con más de 20 años de ventas de tarjetas dedicadas -y a precio considerable-, uno esperaría que la refrigeración séa uno de los principales complementos, sin embargo, la realidad nos demuestra una pobre explotación del mercado, no como el de UCP. Si tuviera que apostar, prácticamente todas lasplacas madres cuentan con un espacio reducido entre una ranura PCIex y la siguiente, he incluso en aquellas que mantienen distancia, presentan una ranura distinta entre ellas -catalogado como problemas de diseño-. Los ventiladores, que pueden ser hasta tres en algunas, enfrían las UPG por radiadores ventilados, el aire que está sobre los 60° se enfrenta directamente a la otra y así sucesivamente, calentando los chips de las compañeras.

Por el tiempo de las aceleradoras gráficas existieron algunas compañías que mantenían ventiladores traseros, se instalaban aledaños a las tarjetas y se expulsaba el aire caliente hacia fuera del gabinete. Ese diseño mejoraba considerablemente la temperatura interna del computador, más no hacía nada por bajar la temperatura operacional. Los nuevos sistemas de refrigeración líquida, que eran muy costos en aquel entonces, hoy no es más caro que un disco duro de buena calidad. Los ventiladores se conectan en la parte superior ó posterior del gabinete mediante un tubo, el que a su vez es conectado a una bomba que hace circular el agua caliente desde los disipadores para su enfriamiento.

El problema sigue siendo la fijación, existen muy pocas bandejas que se adapten a las tarjetas fabricadas, las bandejas son de un material de plástico resistente a altas temperaturas que dispone de fijaciones adecuadas para las placas permitiendo la conexión del disipador de la marca deseada.

compartir imprimirimprimir

Pablo Rodríguez R.


19-01-2020

Panorama Chile

Prendí la tele mientras comía algo de cenar, y me encontré con una entrevista a un personaje sin nombre que se jactó ser parte de la mesa de trabajo de la subsecretaría de telecomunicaciones.

Para aquellos que no se conocen el organigrama del estado, se divide en ministerios, y el ministerio de transporte y telecomunicaciones tiene dos subsecratarías, créo que no hace falta explicar cada una.

Me sorprendió la convicción de sus afirmaciones sobre todo cuando anuncia: "Se está trabajando en una conexión a nivel país de 2Mbps, con eso puedes ver NetFlix perfectamente" Primero la conexión de 2Mbps es una velocidad sumamente pobre anterior al año 2000, es posible que se refiera a 20Mbps y se haya equivocado pero 20Mbps es la velocidad 3G+ del tiempo de Piñera I, -y me refiero a la conexión móvil porque fija en ciudades superan los 300Mbps-

Por capacidad, las conexión 3G+ soportan -como lo he publicado anteriormente- velocidades de conexión sobre los 100Mbps y la comunicación 4G pretendían aumentar a 300Mbps. Lo que sucede es que las compañias móviles por temas de potencia y sobrecarga -un poco ratas también- no pueden establecer las conexiones cercanas a esa velocidad, es por ello que empíricamente, las velocidades 3G+ fluctúan entre los 20 y 50Mbps mientras que las 4G más cercanas a los 100Mbps.

Esto no tiene relación con los equipos de los clientes, ni con la tecnología, sino más bien problemas en la transmisión de datos. A veces usan el término tasa de transferencia, haciendo una diferencia entre la transferencia de archivos frente a la conexión establecida. Para todos los casos, al igual que la velocidad en venta debe hacerse en MBps ó GBps y no Mbps ó Gbps, la velocidad siempre debe medirse como velocidad de transferencia. Al cliente ó usuario no le interesa la velocidad del protón que viaja de un extremo a otro, sino la velocidad que se transfiere el documento, el vidéo, el sonido, que está solicitando ó subiendo para ser compartido.

Entre la fibra óptica austral que promete velocidades entre nodos sobre los 10Gbps y las nuevas antenas 4G instaladas, es sumamente desafortunado el comentario del caballero. Peor aún, haciendo propaganda a un sistema de vidéo con marca internacional cuando cuentan con un servicio nacional "Onda Media" que utiliza el mismo sistema sin capitales ni intereses creados. Lo que me recuerda que aun no liberan la aplicación para televisores inteligentes que me prometieron hace tiempo ya.

compartir imprimirimprimir

Pablo Rodríguez R.


19-01-2020

Frecuencias Satelitales

Frecuencias

compartir imprimirimprimir

ESA


18-01-2020

Recursos Compartidos

En el aviso a la comunidad del 25 de Junio del 2019, mencioné que por defecto todas las versiones al menudéo de Windows 7 y posteriores comparten los discos duros y la carpeta Windows.

Recursos Compartidos

Lo que no mencioné es que en algunas versiones -la mayoría con que me he encontrado hasta ahora-, al reiniciar el equipo ó conectar un nuevo dispositivo, este es compartido de igual modo restaurando aquellos recursos compartidos sin consulta ni aviso.

La solución entregada en aquel entonces sigue funcionando pero con la limitación que recién señalé. Existen algunos programas que se encargan de retirar esta disposición a cada reinicio, pero muchos de ellos requiere de pagos ó suscripciones anuales. Es posible realizar una pequeña rutina batch en el bloc de notas, que revise los recursos compartidos y los elimine en caso de detectarlos. Este debe ser incorporado a las tareas de inicio de sesión en msconfig.

Hasta la fecha no he podido encontrar la configuración exacta que llama a realizar dicha acción, por lo que el parche es mi mejor solución.

compartir imprimirimprimir

Pablo Rodríguez R.


<< < > >> Ir