Preparando el evento "One More Thing": cómo llegamos a los Apple Silicon y hacia dónde vamos
Al fin hemos llegado al momento que muchos hemos esperado en los últimos años: hace ya bastante que se viene rumoreando con la posibilidad que Apple realice una nueva transición de procesadores en los Mac, en este caso hacia los suyos propios. Reputados informadores del mundo Apple como Mark Gurman, nos han contado incluso detalles internos de cómo Apple ha ido probando cada nueva generación de chips Ax para ver qué tal rendiría en un Mac de prueba, hasta que la llegada de los A12X hizo plantearse a la compañía que ahora sí podría darse el salto.
Este martes 10 de noviembre saldremos de dudas, tras el anuncio oficial de la transición en la pasada WWDC y la distribución a algunos desarrolladores (previo pago) de equipos Mac mini con procesador A12Z de Apple (el mismo que usan los actuales iPad Pro de última generación).
Este martes, la Mac App Store comenzará a distribuir apps también Apple Silicon (no solo Intel) y los desarrolladores que sigan prefiriendo la distribución fuera del App Store podrán empezar a distribuir sus apps previamente notariadas. Porque sí, Apple confirmó que bajo ninguna circunstancia se cierran las apps a que solo puedan ser instaladas en los Mac con Apple Silicon desde el Mac App Store.
Pero, ¿cómo hemos llegado hasta aquí? ¿Por qué? Miremos al pasado para entender el futuro que tenemos por delante y el inicio de una transición de 2 años que reinventará el mundo de la informática tal como lo hemos conocido hasta ahora.
La nueva transición, un problema no totalmente solventado la anterior vez
Han pasado unos cuantos años desde que, tras intensos rumores al respecto, Steve Jobs salía al escenario de la WWDC en el año 2005 y anunciaba oficialmente lo que se venía hablando desde enero: Apple tenía problemas para sacar adelante su nueva generación de equipos portátiles G5 y las renovaciones de esa nueva gama incluso en escritorio. La opción de una transición a Intel llevaba tiempo encima de la mesa y no era la primera vez que se intentaba ejecutar el sistema operativo de los Mac en esta arquitectura (en sus chips). El famoso proyecto Star Trek de primeros de los 90, quiso conseguir que System 7 pudiera ejecutarse en procesadores con arquitectura x86, pero finalmente fue descartado.
Pero en esta ocasión había un problema muy serio: los IBM PowerPC 970 (comúnmente conocidos como G5). Estos procesadores eran un quebradero de cabeza para Apple pues, aunque funcionaban sin problema en las torres PowerMac G5, se quería poder poner esos chips también en los portátiles y tener un PowerBook a la altura. Mucho tiempo se rumoreó el lanzamiento de estos, que finalmente nunca llegaron. Pero tampoco lo hicieron los PowerMac a más de 3Ghz que Jobs prometió en la presentación de estos y que luego tuvo que reconocer que nunca llegarían.
¿El problema? El calentamiento y el excesivo consumo de los mismos, unido a la imposibilidad por parte de IBM de reducir su proceso de fabricación por debajo de los 90nm. Un procesador que en su versión base tenía 150W de TDP a 2Ghz de velocidad de reloj (presentado en 2002 y que venía con el PowerMac G5 presentado en 2003), que pudo reducirse a un TDP de 100W en su siguiente modelo manteniendo los 2Ghz, pero que cuando se intentó llevar a los 3Ghz fue imposible: solo en 2,5Ghz teníamos un procesador de 200W de TDP.
IBM intentó fabricar un modelo a 3Ghz (lo que Apple quería para el PowerMac, que nunca salió) y crear una versión para portátiles que nunca llegó y que estaba planificada en 75W de TDP. Pero, tal como el mismo Tim Cook dijo siendo aún vicepresidente de operaciones de la compañía, aquel desafió para IBM era “la madre de todos los desafíos termales”.
Era imposible que los G5 se enfriaran lo suficiente en el chasis de los portátiles y el equipo de ingeniería no conseguía que funcionaran sin llegar a dañarse. Además, su consumo era tan alto que las baterías duraban muy poco tiempo (apenas hora y algo en el mejor de los casos). Y en cuanto a los procesadores de escritorio (el mencionado G5 a 3GHz) era imposible fabricarlo con el proceso de fabricación que IBM usaba y no estaban capacitados para bajar su proceso a menos nanómetros. Lo consiguieron, en teoría, en 2007, pero el chip nunca llegó a fabricarse.
Todo esto llevó a Apple a mirar a Intel quien presentaba sus gamas Intel Core 2 con TDPs mucho más bajos, mejores rendimientos y construcción por debajo de los 90nm, elemento clave para conseguir equipos que fueran más competitivos en el mercado y tuvieran unos rendimientos de batería y generación de calor más normales. Finalmente, Apple anunció su transición y cambió a Intel en apenas 14 meses porque los procesadores de IBM se convirtieron en un callejón sin salida donde no se podía avanzar más.
La historia se repite, e Intel ahora tiene problemas de fabricación y calor
No decimos nada que no sepa cualquier usuario de Mac, cuando constatamos el hecho que los portátiles de Apple se calientan en exceso. Y no hablamos de la etapa de IBM PowerPC. Ahora ya hablamos de Intel. No es un problema actual: es un problema histórico que yo ya me encontré en el año 2010 cuando tuve la ocasión de hacer una review de los primeros modelos MacBook Pro de diseño unibody de aluminio para el medio en que trabajaba en aquel entonces.
Los equipos me parecieron increíblemente competentes y muy potentes, con un rendimiento espectacular, pero la forma en que se calentaban y cómo quemaba la parte inferior al pedirle rendimiento profesional, era algo que no era normal. Obviamente, el metal del equipo servía como disipador también del calor (además de la parte activa con los ventiladores) pero ahí había un fallo de diseño industrial que ha llegado a nuestros días donde ya sabemos que un Mac sobremesa tiende a portarse de forma correcta (iMac o Mac mini) en cuanto a la gestión del calor que genera, pero los portátiles adolecen de calentarse en exceso.
Tanto que incluso ha habido generaciones en el pasado que han presentado fallos de fábrica como agrietamientos en el estaño sin plomo que conectaba la GPU a la placa, causando errores que requerían una nueva placa lógica o realizar el famoso reballing que es sacar una a una las soldaduras de un chip para luego volver a colocarlo y resoldarlo. Un proceso harto complejo.
¿Y por qué este calor excesivo? Pues porque Apple quiere vendernos portátiles ligeros, finos, elegantes, con diseños que atraigan… pero Intel proporciona unos chips que NO se pueden refrigerar convenientemente en dicha estructura con el espacio disponible para un sistema de disipación activa como el que cabe ahí. Y no es un problema solo de Apple: cualquier otro portátil con diseños finos y elegantes, de materiales premium adolece del mismo problema.
¿Cuál es la solución? Ya la sabemos: portátiles más altos (de varios centímetros) con grandes rejillas de disipación, de material plástico y (por lo general) muy ruidosos por el gran ventilador (o ventiladores) que tienen que usar.
Es la única forma de refrigerar convenientemente un chip como los de Intel que han ido evolucionando año a año trayendo más potencia porcentual que las generaciones anteriores, pero también más generación de calor. Y ese problema de calor también viene de la mano de los problemas de Intel para mejorar su proceso de fabricación que durante muchos años ha estado estancado en los 14nm mientras el resto de fabricantes conseguían bajar más. Ahora fabrica a 5nm mientras Intel lo hace a 10nm y espera en 2022 pasar a 7nm cuando Apple ya esté en 3nm con su fabricante habitual.
La solución está delante de nosotros: los Ax de Apple no necesitan disipación activa
Miremos ahora un iPad: ¿se calienta? Sí… sabemos que en ocasiones tocamos el metal y está caliente. Pero nada que sea escandaloso como tocar en ocasiones un portátil a pleno rendimiento en su parte inferior, que quema.
Ahí está el quid: las CPUs de Apple tienen un diseño termal (el famoso TDP) muy bajo: 6W en el A14, 15W en el A12Z del iPad Pro. Y un consumo energético muy bajo. Y están muy optimizados para sacar la mejor eficiencia con el menor consumo posible y generación de calor. Y son capaces de realizar tareas como editar y generar vídeo 4K en tiempo real, insisto, sin necesitar un ventilador. Sin embargo, busquen un equipo PC o Mac que haga lo mismo y verán qué pasa mientras editan o generan ese mismo vídeo 4K: que se calienta hasta niveles solares.
Así que la solución para Apple estaba delante suya en su propio producto: en el momento en que los chips de Apple fueran lo suficientemente competentes como para dar el rendimiento necesario en un equipo de escritorio, una nueva transición podía llegar, pasar todo a una arquitectura más eficiente (como ARM), abandonando de los problemas de consumo y (sobre todo) generación de calor excesivo de los equipos.
Una transición de dos años… vísteme despacio que tengo prisa
Esta transición es muy distinta, no obstante, a la anterior. Apple no tiene que huir hacia adelante porque el fabricante con quien trabaja no es capaz de darle nuevos chips para renovar sus equipos. Intel sigue trabajando y Apple seguirá renovando equipos con Intel en los próximos años. Pero a la vez, irá lanzando versiones de los equipos con sus propios chips hasta que, dentro de un par de años, toda la gama de Macs ya solo use sus propios procesadores, inclusive los Mac Pro más potentes.
Para ello Apple ha de entrar en mercados más allá de los propios procesadores y en algún momento (como ya se ha rumoreado) presentará sus nuevas GPUs: primero para rendimiento de escritorio y después para carga profesional. GPUs que a su alrededor dispongan de complementos que las ayuden a dar un rendimiento equiparable a las actuales soluciones de gama media/alta (según el caso) que usan de AMD.
Pero no nos confundamos. El primer paso y lo que veremos en la presentación “One More Thing” de Apple será un primer paso con equipos que ya conocemos, con el mismo diseño que ya conocemos, pero funcionando con chips de Apple: en principio el MacBook Air y el MacBook Pro de 13” de gama entrada.
Los rediseños quedan relegados para el próximo año, porque ahora el objetivo de Apple es que comparemos cómo el mismo exacto equipo en Intel o en Apple, funciona uno con respecto al otro. Cómo se calienta más o menos, cómo rinde más o menos, cómo hace las mismas tareas de mejor o peor manera: de forma más eficiente o no. Apple intentará demostrarnos que con sus chips todo es mejor: más eficiente, sin necesidad de disipación activa en muchos casos (un ventilador o varios), con duraciones de batería más altas y con un funcionamiento mucho más afinado en equipos silenciosos, que no se calienten en exceso y que rindan a la perfección durante muchos años.
Después vendrán los rediseños: de dos nuevos iMac (uno de 24” y otro de 32”, que sustituirán a la actual gama), nuevo MacBook Pro con pantalla de 14” MiniLED, el resurgir cual Fénix del MacBook de 12” como un equipo de entrada a marca a un precio muy competitivo, nuevos Mac mini más pequeños (casi del tamaño de un Apple TV) y por último, un nuevo Mac Pro que será la mitad de tamaño y con múltiples capacidades modulares.
Bloques que veremos en "One More Thing"
Lo que veremos en el evento “One More Thing” será el primer paso, donde Apple nos hablará de cómo funciona la nueva arquitectura, donde tratará que veamos que todas las apps que ya usamos funcionarán igual o mejor que antes (e invitará a grandes y pequeños desarrolladores para que lo muestren), donde nos enseñará las magnificencias de ejecutar apps de iPhone o iPad en los Mac sin que los desarrolladores tengamos que hacer nada…
Una parte importante será alrededor de tranquilizarnos y que quedemos con la sensación que todo será igual que antes pero mejor y más barato (sí, has leído bien, más barato). Demostrar que los responsables de las apps que usamos en el día a día ya están trabajando o ya han terminado de realizar las necesarias adaptaciones y que ningún programa de los que usamos normalmente dejará de funcionar.
Y que en caso que alguno quede sin pasar a Apple Silicon, Rosetta 2 se encargará que funcione sin problemas en una traducción que se realiza una única vez y ya. Nada de procesos en tiempo real como en el pasado, donde Rosetta debía cambiar el endianness de los datos, debido a que PowerPC representaba la información en un orden de bytes inverso a Intel.
El día 10 de noviembre empieza una nueva Era, que llegará poco a poco y que hemos de tener paciencia mientras se nos presenta paso a paso. Un carrera de fondo que iremos viendo poco a poco y que finalmente, cambiará el paradigma de la informática hacia algo en lo que muchos otros fabricantes querrán sumarse. No olvidéis seguir el evento con nosotros, ya que Pedro Aznar y este que os escribe estarán en directo en nuestro canal de Youtube, para contaros y explicaros todo lo que Apple presente. Os esperamos.
-
La noticia Preparando el evento "One More Thing": cómo llegamos a los Apple Silicon y hacia dónde vamos fue publicada originalmente en Applesfera por Julio César Fernández .
Fuente: Applesfera
Enlace: Preparando el evento "One More Thing": cómo llegamos a los Apple Silicon y hacia dónde vamos
Comentarios
Publicar un comentario