caldera No hay forma de evitar la IA y el MBA este año. La tecnología se está introduciendo en todo, desde el software de oficina hasta las aplicaciones telefónicas.
Nvidia, Qualcomm y otros están felices de impulsar la idea de que este trabajo de aprendizaje automático debe realizarse en un acelerador, ya sea una unidad de procesamiento de gráficos (GPU) o una unidad de procesamiento neuronal (NPU). Arm explicó el miércoles que sus núcleos de CPU, utilizados en teléfonos inteligentes y otros dispositivos en todo el mundo, son ideales para ejecutar programas de inteligencia artificial sin necesidad de un acelerador separado.
En el episodio de Kettle de esta semana, que puede reproducir a continuación, nuestro equipo analiza los beneficios de ejecutar cargas de trabajo de IA en CPU, NPU y GPU; y la energía y la infraestructura necesarias para hacerlo, desde dispositivos personales hasta centros de datos masivos; ¿Y cómo se utiliza esta IA? ¿Qué pasa con el sistema de puntería de IA de Palantir que se inyecta en todo el ejército estadounidense?
Esta semana nos acompaña su anfitrión habitual, Ian Thompson, además de Chris Williams, Tobias Mann y Brandon Vigliarulo; Nuestra productora y editora es Nicole Hemsoth-Prickett.
Para aquellos que anhelan solo audio, nuestra serie Kettle está disponible como podcast a través de Canales RSS y MP3, manzana, AmazonasY Spotify. Háganos saber su opinión también en los comentarios. ®
More Stories
El código en los datos previos al entrenamiento mejora el rendimiento del LLM en tareas que no son de codificación
Un marco para resolver ecuaciones diferenciales parciales equivalentes puede guiar el procesamiento y la ingeniería de gráficos por computadora
Epiroc ha lanzado una nueva plataforma de perforación de producción de pozos largos