PDA

Ver la versión completa : [Noticia] AMD necesita duplicar su participacion el el mercado



AxeTouch
08/05/2008, 10:27
AMD necesita duplicar su participación en el mercado de microprocesadores

A fines de 2007 poseía el 13% del market share y varios de sus clientes corporativos se inclinaron por los chips de Intel. La empresa debe volver a seducir a los usuarios finales.

http://img501.imageshack.us/img501/1890/camd180408gal1yi8.gif (http://imageshack.us)

Los malos resultados económicos experimentados durante los 2 últimos años obligan a Advanced Micro Devices (AMD) a afrontar el desafío de tener que duplicar su participación en el mercado de microprocesadores. De lo contrario, la situación financiera sería más que crítica y pondría en peligro su supervivencia.

A través de un breve comunicado, la compañía norteamericana aseguró que a fines de 2007 tenían el 13% del market share, "menos de la mitad de lo requerido para operar a futuro un negocio sustentable". Asimismo, alegó que los esfuerzos de Intel para dejarlos afuera del segmento de procesadores fueron exitosos.

Por otro lado, algunos analistas señalaron que la estrategia de AMD de entablar una demanda contra Intel por prácticas desleales y anti-competitivas no dio los resultados esperados: muchos clientes corporativos comenzaron a preocuparse por la situación financiera del desarrollador y declinaron la idea de seguir implementando sus dispositivos.

A las dudas sobre su endereza económica, se sumó el retraso del lanzamiento del procesador Quad-Core Opteron, que abría terminado por decidir a los CIOs a elaborar sus computadoras con los chips de Intel.

El temor de AMD es legítimo, sentenció Rajnish Arora, director de servicios empresariales e investigaciones de IDC Asia-Pacific, quien agregó: "Se enfrentan a un gran desafío. Necesitan hacer crecer su facturación y volumen de negocios".

Desde su punto de vista, la clave es que la empresa genere una fuerte demanda de los usuarios finales hacia sus procesadores, lo que a su vez se traduciría en que más fabricantes de computadoras vendan equipos basados en sus chips. "Todo esto es impulsado por la demanda de los clientes", concluyó Arora.



COMUNICADO OFICIAL
6 de Mayo de 2008



Fuente: www.amd.com

Es una noticia q la saque buscando algo sobre AMD, la vi de interes y bueno, la comparto con ustedes.

Saludos.

:mf_type:

PD: Apenas tenga tiempo voy a ver si puedo postear un review sobre una linda Motherboard.

galuf
08/05/2008, 12:30
AMD tiene que volver a dar una pegada como lo fué el atlhon hace unos años.
Si no lo logra (cosa que para ser sincero dudo que lo haga ya que intel en estos momentos está más que bien a nivel mundial) cagó.

El problema es que si AMD muere, intel revienta los precios?.
Aparecería IBM para competir?

el_marto23
08/05/2008, 14:19
AMD tiene que volver a dar una pegada como lo fué el atlhon hace unos años.
Si no lo logra (cosa que para ser sincero dudo que lo haga ya que intel en estos momentos está más que bien a nivel mundial) cagó.

El problema es que si AMD muere, intel revienta los precios?.
Aparecería IBM para competir?

Leí q nVidia planea plantarsele a intel....

galuf
08/05/2008, 19:31
Leí q nVidia planea plantarsele a intel....

:O
no me parece tan descabellado ya que la relación de nvidia con intel viene bastante tirante (sobretodo luego de que apareción INTEL y dijo "para viciar es necesario más CPU que GPU" y saltó nvidia "+GPU -CPU").
Además siempre tuvo buena relación nvidia con amd.

PD:yo sigo apostando a IBM, que el día que aparezca "masivamente" intel se las puede tener complicada.
A AMD si no lo agarra un buen ejecutivo con mucha cabeza y les pega una buena "tirada de huevos" a todos se termina de hundir. En su intento desesperado está malgastando el dinero sacando micros que antes de salir al mercado ya están "quemados" por la popular.

Encontré este interesante artículo



La guerra de las CPU y GPU

Octubre 25, 2007 at 5:46 pm (datos tecnologicos e informaticos)
Introducción y Contextualización del Problema

¿Por donde seguir? Esa parece ser la pregunta de fondo tras todo lo que les voy a contar hoy dia. Hasta ahora, el desarrollo de los últimos 20 años ha sido liderado por las CPUs en el sentido de poder, eficiencia y programabilidad. Los últimos años, con el ingreso de las GPUs poderosas a la cancha y los avances en programación para éstas demandados básicamente por las necesidades de los gamers que intentan ser satisfechas por los creadores de juegos que necesitan más poder de cálculo para desarrollar aplicaciones cada vez más poderosas (es un círculo, right?), la cosa está dejando de pelearse sólo en un área. Ahora llegamos al punto en que una opción debe ser tomada. Ambos approachs permiten poder, eficiencia pero de manera radicalmente distinta.

Para que vean por qué empezó a estar sobre el tapete este cuento, basta mencionar una afirmación de Intel en que dicen que hay un problema comparativo entre producir CPUs y producir GPUs: Los márgenes de ganancia de las CPUs están decreciendo, mientras los márgenes para las GPUs están aumentando. Ésto visto desde el punto de vista de un encargados de negocios (quien financia todo lo que se desarrollo por parte de una compañía) es, por decir lo menos, preocupante para las empresas de CPUs.

¿Qué es GPGPU?


GPGPU (Computación de Propósito General en la Unidad de Procesamiento Gráfico) ha sido tema de muchos artículos y muchas palabras en la actualidad, logrando por ejemplo grandes éxitos en el proyecto Folding@Home entre otros. Básicamente, las razones de éste éxito son que GPGPU utiliza todo el poder de Punto Flotante que posee la GPU, que en la actualidad es un orden de magnitud (en bruto) que el de una CPU y además se vé beneficiado de los cambios en el diseño de la arquitectura de una GPU: Instrucciones de Punto flotante de 32 bits, Shaders complejos, Construcciones de programas en loop ramificados, etc. El problema para que esto se masifique, es decir, que tengamos muchísimos programas de propósito general corriendo en nuestras GPU’s es que la construcción de software es complejísima, o al menos radicalmente distinta que la construcción de software para CPU. Un punto clave para que esto prospere es *** (Close-To-Metal, no el significado usual del foro) que es una interfaz de hardware que permite estrujar la tecnología de procesamiento secuencial 10 veces más que las API’s (Interfaz de Programación de Aplicaciones) por parte de ATI y CUDA (Configuración Unificada de Cálculo en el Dispositivo) por parte de Nvidia, que permite a los desarrolladores correr códigos en C en la GPU, de nuevo usando la tecnología de procesamiento secuencial. CUDA permite paralelizar en miles de threads (separación de procesos en 2 o más tareas ejecutadas en paralelo), paralelizar la caché de datos para obtener mayor intensidad aritmética en los speedups masivos (esto es, que tanto más rápido resulta ser un algoritmo en paralelo comparado a uno secuencial), usar librerías BLAS (Subprogramas de Álgebra Lineal Básica) y FFT (Transformadas de Fourier Rápidas), entre otros.
¿Cómo se trabaja y cuál es la diferencia entre una y otra forma de trabajo?

Hasta ahora, la evolución de las CPUs ha ido por las lineas del rendimiento del procesamiento en sí (que tan poderosas son las CPUs) y la de las GPUs hacia las lineas de procesamiento general (lo que les contaba más arriba en detalle). Al optimizar por la eficiencia energética, las CPUs adoptaron el camino del paralelismo explícito, con pros y contras. A usar VLIW (Sentencias de intrucciones muy largas) y Vectores ganan cuando hay una firme sincronización pero pierden cuando la data procesada sigue muchos caminos y al separar todo en Threads se invierte toda la cosa. Como el uso de ambas actualmente es inevitable para poder obtener una performance razonable, tienen que ajustar todo para que la eficiencia vectorial degrade lo menos posible la performance (mientras mayores sean los vectores la eficiencia baja) y mientras más cosas haya que comunicar, mas baja la eficiencia del Threading.

La información y la discusión que dejó como herencia el artículo de “Los 5 pilares de la paralelización” nos sirve muchísimo para entender este fenómeno. Piensen en el ejemplo del programa que intercambiaba los nombres de Pedro, Juan y Diego que se propuso anteriormente. El ataque de las CPUs es tratar de hacer los cambios de la manera más rápida posible uno tras otro con un código descrito en las funciones del ejemplo. Un ejemplo del uso de vectores que daría el enfoque de las GPUs podría ser guardar los nombres dentro de un vector y llamar a la dirección en que éste estaba siendo guardado (puntero) mediante una función resultante de una serie de permutaciones (cambié el 1 por el 2, luego el 2 por el 3, luego el 3 por el 1, etc.), haciendo posible llevar a cabo los tres procesos de manera simultáneas en tres threads diferentes pero con una función diferente para cada uno y con características más complejas entre uno y otro paso. Este es un ejemplo trivial, pero la pregunta de fondo es ¿Cómo escalarán ambos procedimientos al en vez de tener 3 personajes tengan millones o miles de millones?


Conclusiones y palabras al cierre

De manera sensata, lo único que se puede decir es que en el caso que un requerimiento de software específico sea programado para CPUs y GPUs actualmente las GPUs llevan la ventaja por un tema de capacidad de procesamiento (un orden de magnitud en escala de Flops) teniendo probablemente como consecuencia directa que el tiempo de desarrollo del software y las dificultades encontradas durante la programación sean muchísimo mayores, siendo inviables incluso en la gran mayoría de los proyectos. Las CPUs en cambio tienen un rendimiento razonable que va creciendo también a una tasa no despreciable (pero, menor que la de las GPUs) pero sus posibilidades de paralelización, clusterización, las nuevas tecnologías de intercomunicaciones entre nodos

En el futuro, con iniciativas como AMD Fusión que no solamente traerán de la mano eficiencia energética, miniaturización de componentes sino posibilidades de programación no exploradas hasta ahora al tener a la CPU y a la GPU en un mismo die, probablemente veamos que los desarrolladores que desarrollan para los desarrolladores de software (redundancias incluidas), es decir, quienes programan las APIs, Assemblers y etc., hagan de la experiencia de programar de manera vectorial para GPU menos tortuosa y comiencen a mezclarse seriamente con los programas en CPU, usando por decirlo así una combinación de ambos alcances para lograr el mejor resultado final posible.

La única lata del tema es para todos los que algo aprendimos a programar hace pocos años: parece que se viene una revolución tan grande como el paso hacia la programación de alto nivel, por allá en la década del 50′.

TheAlchemist
09/05/2008, 10:54
Lo peor que hizo AMD en estos ultimos tiempos acoplarse a ATI, ya que AMD + Nvidia hizo desastres en el mercado, incluso orientado al gamer. No creo que nvidia se tire contra Intel, que mejor marketing tendrian estas empresas con una posible fusión, como lo fue con la versión de motherboard Asus P5n-sli con chipset nforce.

PD: AMD no creo que caiga tan facíl.
Saludos!!

AxeTouch
09/05/2008, 20:44
Leí q nVidia planea plantarsele a intel....

Lei lo mismo en un boletin oficial de nvidia.

Yo sobre eso pienso q si seria la muerte para AMD, porq tmb comparto lo q dice David, Intel + Nvidia = un lindo marketing, yo por lo q eh leido en blog agenos a este foro q se esta hablando mas o menos de esto de la junta con nvidia (intel + Nvidia).

Pero para no irme del tema, agrego algo q es lo q yo pienso personalmente.

Amd: una empresa fuerte, una empresa q por muchos años a estado lidiando con su linda competencia "Intel" pero si ustedes se fijan todabia no a perdido totalmente.

Espero sinceramente q AMD nunca se retire del mercado ya q Intel nos castigaria con los precios. Si estamos hablando q un Intel Extreme esta al rededor de $1300 (mas o menos) se imaginan lo q seria sin la competencia AMD. UN CAOS. ^^

Bueno, en fin.
AMD esperemos q se logre llegar a lo q fue en el pasado, una empresa fuerte y q compite dia a dia.

Saludos.

:horse:

PD:

AMD no creo que caiga tan facíl.

Agree.-

Zagarth
09/05/2008, 21:20
AMD... Nunca me gustaron pero reconozco, tienen aguante.

Hmm... No creo que nVIDIA se le plante a Intel, tengo entendido que estan juntos, ademas de que sería suicida para nVIDIA creo... No se, yo si saliese un CPU nVIDIA salgo corriendo a probarlo :D

Y si, gran cagada de AMD unirse a ATi, pero si Intel estaba con nVIDIA con se iba AMD?? Con las S3 Unichrome?? :D

AmonRa
10/05/2008, 14:50
A intel no le conviene hundir AMD.. lo tienen q apretar pero no lo pueden ahorcar.. del mismo modo q a Google no le conviene hundir yahoo x que la toma microsoft. la victoria se te transforma en derrota.. a AMD quien la tomaría??

Zagarth
10/05/2008, 15:01
A intel no le conviene hundir AMD.. lo tienen q apretar pero no lo pueden ahorcar.. del mismo modo q a Google no le conviene hundir yahoo x que la toma microsoft. la victoria se te transforma en derrota.. a AMD quien la tomaría??

ATi?

Hmmm... Pero AMD va a estar en el pozo, es cierto eso.

galuf
10/05/2008, 16:02
ATi?

Hmmm... Pero AMD va a estar en el pozo, es cierto eso.

Pienso que si no está en el pozo ya adentro se podría decir que está mirándolo desde muy cerca.
Pero ojo! quien sabe, hace sus buenos años square estaba supercagada de guita, ya quebraba, y puso lo último que tenía de esperanzas en un proyecto llamado "Final Fantasy" para la NES.

Creo que lo que siguen ya lo saben...

AmonRa
10/05/2008, 20:20
ATi?

Hmmm... Pero AMD va a estar en el pozo, es cierto eso.

q se yo.. pensaba + bien en Apple... o.. generals motors =P

freedom
11/05/2008, 02:10
q se yo.. pensaba + bien en Apple... o.. generals motors =P
Apple nunca y en todo caso Mitsubishi.

De cualquier manera, AMD no va a caer porque siempre va a haber gente que descontenta con los altos precios de Intel (y reconociendo sus falencias de arquitectura) van a optar por esta empresa.

Si, AMD esta en unos tiempos apretados, pero dudo que quede en bancarrota y se retire del mercado ya que este periodo que esta atravesando es pasajero, como lo fue el de Intel con sus P4...

Yo por mi parte ruego que no se muera AMD porque sino no tengo por quien optar a la hora de comprar mi proxima PC. Intel no me gusta, VIA hace procesadores muy poco potentes, Apple es muy caro y no es conveniente, lo caul me deja sin alternativas.

Suerte en la vida