Más detalles A14 y del machine learning en una entrevista al VP de arquitectura de plataforma de Apple
Siguen apareciendo nuevos detalles de los A14 Bionic que montarán los nuevos iPad Air. Por ahora deberemos esperar a que empiecen a llegar las primeras unidades para sacar conclusiones más exactas, pero está claro que Apple se ha superado a sí misma en el A14. En una reciente entrevista con Stern, Tim Millet, vicepresidente de arquitectura de plataforma nos cuenta más detalles.
La importancia del machine learning
La potencia del procesador A14, con la poca información de la que disponemos actualmente, nos está sorprendiendo. Tal como nos cuenta Millet, esta importante mejora en el rendimiento y potencia del chip se debe al uso de machine learning. Según el ejecutivo esta disciplina ha "permitido una nueva clase" de aplicaciones.
Según Millet Apple no ha inventado las redes neutrales, pero gracias a la potencia de sus procesadores ha podido sacar a relucir lo que se consigue al usarlas. "Me quedo sin aliento cuando veo lo que las personas pueden hacer con el chip biónico A14", comenta. Tal como nos explica en la entrevista, cuando se sentaron las bases de esta clase de computación había dos grandes inconvenientes: la falta de potencia necesaria y la falta de datos con los que entrenar los modelos.
Fue hacia el año 2010 cuando empezamos a ver cambios en estos dos factores. Poco a poco la potencia de los procesadores móviles fue aumentando y permitiendo usar el machine learning para más y más aplicaciones. En 2017 Apple nos sorprendió con el lanzamiento del iPhone X, el primer iPhone con Face ID, que contaba con un chip que realizaba 600.000 millones de cálculos por segundo. Ahora el A14, fabricado en tecnología de 5 nanómetros, puede realizar unas 18 veces más operaciones, un total de 11 billones de operaciones por segundo.
Por supuesto toda esta fuerza bruta necesita que los equipos de hardware se pongan de acuerdo con los de software para poder sacarle partido. Un entendimiento que además se extiende a los desarrolladores de terceros, tal como nos cuenta Millet.
Trabajamos muy estrechamente con nuestro equipo de software durante todo el proceso de desarrollo para asegurarnos de que no solo construimos una pieza de tecnología que es útil para unos pocos. Queríamos asegurarnos de que miles y miles de desarrolladores de iOS pudieran hacer algo con ella.
Core ML es una fantástica oportunidad para las personas que quieren entender y descubrir las posibilidades que tienen. Hemos invertido mucho tiempo en asegurarnos de que no solo ponemos transistores en el chip que luego no se utilizan. Queremos que las masas accedan a ellos.
Un core ML que, tal como se menciona en la entrevista, es básico para el funcionamiento de la conocida aplicación Djay, así como para la mayoría de las apps de Adobe.
Por último el medio alemán ha preguntado sobre la posibilidad de adaptar Face ID con las mascarillas. A este respecto el ejecutivo ha contestado que, si bien se podrían adaptar los algoritmos, al final dejaríamos de interpretar prácticamente la mitad de nuestros rasgos faciales. Una reducción muy drástica de la cantidad de variables que se tienen en cuenta para identificarnos y que debilitaría muy considerablemente la seguridad de Face ID. "Las personas quieren comodidad, pero al mismo tiempo quieren estar seguros. En Apple nos encargamos de asegurar que los datos permanezcan seguros".
Por ahora seguimos pendientes de que las primeras unidades de iPad Air llegan a nuestras manos. Unas unidades con las que podremos probar el chip A14 con toda libertad y hacernos una idea de lo que está por llegar con el iPhone 12, cuyo evento debería anunciarse en breve.
-
La noticia Más detalles A14 y del machine learning en una entrevista al VP de arquitectura de plataforma de Apple fue publicada originalmente en Applesfera por David Bernal Raspall .
Fuente: Applesfera
Enlace: Más detalles A14 y del machine learning en una entrevista al VP de arquitectura de plataforma de Apple
Comentarios
Publicar un comentario