
Cuando se trata de la tecnología de conversión de texto a voz (TTS), Apple dio su último gran salto con iOS 16. Desde entonces, aunque ha habido pequeñas mejoras, la tecnología central sigue prácticamente sin cambios. Aunque muchos usuarios consideran que las voces de Apple son “suficientemente buenas”, quedan en desventaja frente a las voces de IA modernas, como las impulsadas por plataformas como Microsoft Azure o OpenAI. Entonces, ¿qué está frenando a Apple?
Por qué las voces de Apple están rezagadas frente a las voces de IA
Existe la idea errónea de que el aparente retraso de Apple en avances de TTS se debe a la incompetencia. En realidad, la brecha entre las voces de Apple y las de última generación con IA radica en las limitaciones del hardware.
La mayoría de las voces de IA modernas funcionan en servidores de alto rendimiento diseñados específicamente para estas tareas. Estos servidores son significativamente más potentes que el hardware de incluso el último iPhone 16 Pro. Además, las voces basadas en la nube aprovechan hardware dedicado exclusivamente a su procesamiento, a diferencia de los iPhones, que deben gestionar múltiples procesos simultáneamente.
Asimismo, las voces TTS actuales de Apple están optimizadas para ejecutarse en una amplia gama de dispositivos, desde el iPhone 8 hasta los modelos más recientes. Esta compatibilidad implica que las voces están limitadas por el dispositivo con menor capacidad, como la memoria y el procesador del iPhone 8, que están muy lejos de ser suficientes para los modelos de IA modernos de texto a voz.
El futuro: evolución del hardware del iPhone
A pesar de las limitaciones actuales, hay un margen significativo para mejorar las voces TTS de Apple en el futuro cercano. Los modelos más recientes de iPhone, comenzando con el iPhone 15 Pro, cuentan con capacidades avanzadas de IA que superan con creces a las de dispositivos más antiguos. Si Apple adapta su tecnología TTS para aprovechar estas nuevas capacidades, los usuarios podrían experimentar un salto dramático en la calidad de las voces. Todas las herramientas de Apple Intelligence funcionan únicamente en este hardware, aunque las voces de Apple Intelligence aún no han llegado.
A más largo plazo, las mejoras anuales en el hardware del iPhone podrían permitir eventualmente que el dispositivo ejecute modelos de IA necesarios para generar voces altamente realistas. Sin embargo, alcanzar este hito podría tardar hasta 2030, y aun entonces, la duración de la batería seguiría siendo un factor crítico. Por otro lado, la línea Mac de Apple podría alcanzar esta capacidad antes, ya que sus exigencias de batería no son tan estrictas, aunque las mejoras específicas de TTS en Mac probablemente seguirán el ciclo del iPhone.
Por qué las voces TTS de Apple siguen siendo relevantes
A pesar de las ventajas de las voces basadas en IA en la nube, las voces de Apple siguen siendo una opción sólida por varias razones. Son completamente gratuitas y no tienen límites de uso, a diferencia de los servicios en la nube, que suelen tener restricciones de pago o cuotas de uso. Para muchos usuarios, esta compensación—voces gratuitas y accesibles en lugar del realismo de las voces de IA en la nube—es más que aceptable.
Además, a medida que Apple continúe refinando sus voces TTS y sus capacidades de hardware, es probable que la brecha entre las voces de Apple y las de IA se reduzca. Con el tiempo, lo que hoy es “suficientemente bueno” podría convertirse en “excelente” para la gran mayoría de los usuarios.
Experimenta lo mejor de ambos mundos con Speech Central
Ya sea que prefieras las voces de Apple o las opciones más avanzadas con IA, Speech Central ofrece una solución asequible para maximizar tu experiencia TTS. Su motor personalizado garantiza el mejor rendimiento según la tecnología que elijas.
¿Listo para probarlo? Descarga Speech Central hoy mismo: