Su última visita fue: Sab Nov 18, 2017 4:13 pm Fecha actual Sab Nov 18, 2017 4:13 pm

Todos los horarios son UTC + 1 hora [ DST ]




 [ 28 mensajes ]  Ir a página Previo  1, 2
Autor Mensaje
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Mar Dic 13, 2016 3:57 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
ubyacen a todos ellos un ritmo aún más ralentizado que consiste en prolongadas fases alternantes de acumulación acelerada y decelerada. La historia capitalista se despliega en un escenario dinámico.

La Gran Depresión de los años 30 se caracterizó por un desempleo muy elevado y precios en descenso, en tanto que la Crisis de Estanflación de los 70 tenía una tasa de paro de la mitad con respecto a aquella pero una elevada inflación. La diferencia constituye tanto un tributo a la política keynesiana como una advertencia de sus limitaciones. (Capítulo 12) Comenzó un nuevo periodo de bonanza en los 80 en los países capitalistas más avanzados, habilitado en gran medida por un acusado descenso en los tipos de interés que elevaron la tasa neta de retorno sobre el capital (es decir, elevaron la diferencia neta entre la tasa de ganancia y la tasa de interés). Los tipos de interés en descenso también hicieron las veces de lubricante para la expansión del capital a nivel global, promovieron una gigantesca subida en la deuda del consumidor, y espolearon burbujas internacionales financieras e inmobiliarias.

Las propias empresas financieras promovieron con avidez la desregulación de sus actividades, y con la salvedad de algunos países como Canadá, sus esfuerzos se vieron coronados por el éxito. Al mismo tiempo, en naciones como Estados Unidos y el Reino Unido, se desencadenó un ataque sin precedentes contra los trabajadores, que condujo a una ralentización de los salarios reales con respecto a la productividad. El descenso en los tipos de interés y en los salarios reales relativos disparó en gran medida la tasa neta de ganancia. El efecto corriente secundario de una desaceleración salarial debería haber sido un estancamiento del gasto real en consumo. Pero con los tipos de interés bajando y siendo cada vez más fácil el acceso al crédito, siguió creciendo el gasto en consumo junto con otras expensas, cabalgando en la marea creciente del endeudamiento. Después todo se desplomó, siendo el desencadenante la crisis hipotecaria en los Estados Unidos.

La crisis aún está desplegando sus efectos. Se han creado enormes cantidades de dinero en todos los países avanzados para canalizarlo al sector empresarial para apuntalar sus activos. Pero la incidencia del paro es aún muy elevada (capítulo 14)
Resulta impactante que se haya hecho tan poco para hacer crecer el empleo mediante programas gubernamentales, como fue el caso de los programas de obras públicas o el rearme en los años 30. La pregunta fundamental es: ¿cómo puede un sistema en el que sus instituciones, regulaciones y estructuras políticas han cambiado de forma tan significativa a lo largo de su evolución seguir exhibiendo ciertos patrones recurrentes? La respuesta radica en el hecho de que el afán de lucro es siempre el regulador central del sistema ya que tanto la oferta como la demanda están arraigadas en última instancia en la rentabilidad (capítulo 13) En lo que sigue me centraré sobre todo en los Estados Unidos como el poder hegemónico del orbe capitalista. Por descontado, los padecimientos son globales, y han caído sobre un gran número de hombres, niños y parados que ya sufrían muchísimo.

La Gráfica 16.1 muestra las olas de Kondratiev desde 1790 a 2010 en los Estados Unidos y en el Reino Unido que son claramente apreciables cuando se expresa el nivel de precios dentro de cada país en términos de su equivalente áureo (capítulo 5, gráficas 5.5-5.6) y vemos que las crisis generales suelen empezar de forma característica a grandes rasgos en medio de largas recesiones. La Gran Depresión de 2007 llegó bastante según lo previsto. Los economistas ortodoxos no dejan de repetir que cada crisis es un fenómeno singular y que no volverá a repetirse porque ya se ha arreglado el problema. Ricardo, Fisher, Samuelson, y Bernanke son algunas de las luminarias ligadas con estas proclamas. Y, por supuesto, la ortodoxia económica sigue ensalzando las excelencias del mercado y minusvalorando (o haciendo caso omiso) la crisis presente. La Gráfica 16.2 muestra que la tasa de ganancia máxima normal cae a paso firme a lo largo del periodo de postguerra, es decir, que el cambio técnico se muestra constantemente sesgado en favor del capital (capítulo 7, sección VII). La participación normal de la ganancia es estable en la “era dorada” para los trabajadores americanos, de 1947 a 1968, desciende durante la crisis de Estanflación de 1969 a 1982, aumenta considerablemente durante la era neoliberal que comienza en los 80 y conserva su elevado nivel durante la crisis global que comienza en 2007. Esto está en consonancia con el hallazgo previo del capítulo 14, Gráfica 14.14, de un viraje a la baja en la participación salarial que muestra la curva de Phillips y el movimiento constante a la baja a lo largo de esta nueva curva.

La conjunción de una participación salarial en constante descenso y déficits fiscales eleva dramáticamente la participación de la ganancia incluso durante la crisis. Siendo la tasa normal de ganancia producto de la participación normal de la ganancia y la tasa máxima de ganancia normal, desciende con más celeridad durante la Crisis de la Estanflación pero después se estabiliza durante la era neoliberal hasta llegar a la presente crisis. En efecto, el cambio técnico erosiona a paso firme el nivel de la tasa normal de ganancia en esos tres periodos pero en la era neoliberal una reducción inducida en la participación salarial puede compensar la caída firme en la tasa normal máxima de ganancia. Las medidas de ganancia real están evidentemente sometidas a muchas fluctuaciones, como la gran subida que sobrevino durante los años 60 como reflejo de la escalada del déficit para financiar la Guerra de Vietnam. Sin embargo, en el largo plazo, se acaban imponiendo factores estructurales. Las tasas de ganancia netas promedio e incrementadas son combinaciones de las trayectorias de la ganancia y de los tipos de interés. Podemos ver que la Crisis de Estanflación de finales de los 60 fue precipitada cuando ambas tasas netas se desplomaron a mínimo históricos, y como consecuencia de ello todo el comportamiento del sistema mudó: se ralentizó el crecimiento, proliferaron quiebras y suspensiones de pagos, se produjo un acentuado ascenso del paro, los salarios reales descendieron en relación con la productividad, y el mercado de valores se desplomó un 56% en términos reales, tal y como sucedió en el peor momento de la Gran Depresión. En una respuesta keynesiana, el déficit del presupuesto federal aumentó 40 veces y la inflación se disparó pero también la tasa e intensidad del paro (capítulo 14, Sección VI) La solución histórica a la Crisis de Estanflación fue una reducción de la participación salarial y una gran reducción del tipo de interés, teniendo ambos elementos un efecto taumatúrgico en las tasas de ganancia neta. Este es el secreto verdadero de la gran bonanza que comenzó en los 80. El problema era que esta bonanza inducida era intrínsecamente contradictoria.

El abaratamiento de la finanza fijó una escalada de endeudamiento y la carga de la deuda sectorial creció dramáticamente. Las familias compensaron sus ingresos salariales ralentizados recurriendo al endeudamiento, de modo que el gasto en consumo se mantuvo hasta el colapso subsiguiente del sector de las hipotecas suprime, que desató una crisis general que se diseminó con rapidez en una economía global ya bastante quebradizo.

La Sección II analiza las consecuencias generales de la crisis. Dadas las inclinaciones de la teoría económica ortodoxa, no es sorprendente en absoluto que la crisis conmocionara a la mayoría de los economistas académicos y gerentes de los bancos centrales. La reserva federal mantuvo a flote a los bancos, a las grandes empresas y a los mercados financieros inundando los mercados con dinero y las empresas financieras de EEUU han vuelto en esencia a sus antiguas prácticas. Noruega y Canadá se mostraron más discretos en su gestión de los mercados financieros evitando así muchos problemas pese a haber tenido que sufrir el impacto de una contracción en sus exportaciones mundiales. Islandia padeció terriblemente la crisis financiera global cuando se derrumbaron los tres bancos más grandes y su moneda, llevándose consigo a la economía en su conjunto. Pero procedió a devaluar marcadamente su moneda para tratar de recuperar su competitividad (lo que redujo acusadamente también los salarios reales) y dejó quebrar a sus bancos para que los acreedores extranjeros tuvieran que asumir gigantescas pérdidas, por lo que capeó relativamente bien el temporal.

Por contraste, el gobierno irlandés intervino para salvaguardar a los bancos, convirtió su deuda en estatal y después impuso la carga de su devolución a la población con recortes en derechos laborales y en salarios. El paro y la pobreza crecieron acentuadamente. Irlanda, al contrario que Islandia, formaba parte de la eurozona, por lo que no podía recurrir a devaluar la moneda. Grecia, España y Chipre han experimentado dificultades económicas tan o más graves, y el Reino Unido está pasando por una depresión más grave que la Gran Depresión de los años 30. La India y China se destacaron en la primera década del siglo XXI mostrando tasas de crecimiento económico extremadamente elevadas, pero ahora están experimentando inflación, burbujas inmobiliarias y ralentización de su crecimiento. La financiación barata fue el modo de incrementar el empleo y cebar los mercados financieros en la era neoliberal, pero la crisis ha socavado de forma grave tales tácticas. Se ha estimado que hay caso 200 millones de parados en el mundo.

El empleo juvenil es especialmente elevado, comprendiendo casi 74 millones de jóvenes en una tasa de paro que se hallaba en el 12,6% en 2014 y con visos de subir aún más. Y estamos hablando de tasas de desempleo oficiales, que suelen subestimar bastante el verdadero estado de la cuestión, ya que no dan cuenta propiamente del empleo a tiempo parcial y de los desalentados. A escala global casi 900 millones de trabajadores viven en la más abyecta miseria.

La Sección III analiza los debates políticos sobre la austeridad frente a las políticas de estímulo. Si bien los gobiernos a nivel mundial han acudido a toque de corneta a rescatar a los bancos quebrados y a las empresas, les ha preocupado menos incrementar el empleo. En el núcleo de todo esto reside un debate entre los que promueven la austeridad para hacer más dóciles a los trabajadores y más “competitivos” a los mercados laborales y los que promueven medidas para incrementar el empleo y conservar el nivel salarial. Sabemos gracias a la historia y a la teoría (capítulo 13) que el gasto incrementado del gobierno puede estimular la economía durante un periodo de tiempo considerable. Esto se hizo patente en la Gran Depresión de los años 30 en la que la Work Projects Administration (WPA) en los Estados Unidos dio trabajo a millones de personas mientras que en Alemania el programa de rearme de Hitler logró con increíble rapidez llegar al pleno empleo. En tiempos de guerra estas actividades suelen ir de la mano con una financiación basada en un tremendo déficit. En la Segunda Guerra Mundial, de 1943 a 1945, los déficits presupuestarios de EEUU promediaban el 25% del PIB, mientras que el nivel del mismo en 2014 se hallaba por debajo del 3%. La guerra supone tan sólo una forma de movilización social y no hay ningún motivo práctico por el que no puede hacerse algo parecido durante una crisis.

De todos modos, es necesario subordinar el afán de lucro al bien común percibido, que es, por descontado, mucho más sencillo políticamente si la justificación es una guerra. Los tiempos de normalidad son distintos, porque entonces las operaciones de estímulo están limitadas por el retorno de la utilización de capacidad a un nivel normal y por la relación inversa entre la participación salarial y la tasa de ganancia. La Sección IV vuelve a abordar la proposición central de que la teoría es crucial para el análisis y la política económica. La economía ortodoxa comienza con la competencia perfecta, la Ley de Say y el pleno empleo y luego llega a efectos que mimetizan ciertos aspectos de la realidad “lanzando un cubo de chinitas” a la maquinaria de la competencia perfecta. La economía post-keynesiana comienza directamente con la competencia imperfecta con el fin de edificar su teoría y su política macroeconómica. Argumentaré a lo largo de esta obra que la teoría de la competencia real es la más propia e igualmente el campo más propio para la propia teoría de la demanda efectiva de Keynes. Tanto por lo que a la oferta como a la demanda respecta, es la rentabilidad la que desempeña el papel dominante.

El capítulo final de este libro resume su estructura y aborda implicaciones ulteriores de su estudio. La finalidad de este libro es demostrar que las proposiciones centrales del análisis económico pueden inferirse sin aludir para nada a la híper-racionalidad, a la optimización, a la competencia perfecta, a la información perfecta, a los agentes representativos o a las llamadas “expectativas racionales”. Esto comprende las leyes de la oferta y la demanda, la determinación de las tasas salariales y de ganancia, el cambio tecnológico, los precios relativos, los tipos de interés, los precios de bonos y valores, los tipos de cambio, los términos y el balance comercial, el crecimiento, el paro, la inflación y prolongados periodos de bonanza que acaban en crisis recurrentes y generalizadas.

En todos los casos, la teoría desplegada en el libro se aplica a modernos patrones empíricos y se parangona con los enfoques neoclásicos, keynesianos y post-keynesianos sobre las mismas cuestiones. El pensamiento económico se evalúa a la luz de las leyes económicas del objeto de investigación, que no es sino el propio capitalismo. Defenderé que esta es la esencia de los enfoques clásico, keynesiano y kaleckiano.

Un hallazgo nuclear es que pueden emerger patrones legítimos de resultas de la interacción de unidades heterogéneas (individuos o empresas) que operan con estrategias variantes y con expectativas en conflicto, ya que los resultados agregados son “vigorosamente indiferentes” a los detalles microeconómicos. La híper-racionalidad no es necesaria puesto que uno puede derivar los patrones observados sin acudir a la misma, ni tampoco es útil porque no refleja las motivaciones subyacentes. El enfoque clásico se basa en la observación de los patrones y resultados presentes. La tradición neoclásica se funda en su idealización. La abstracción desempeña un papel diferente en cada uno de ellos: abstracción como tipificación en el primero, abstracción como idealización en el segundo. En aquel, el objetivo es regresar a los patrones presentes introduciendo sucesivamente factores más concretos.

Todas las masas newtonianas caen al mismo ritmo en un vacío, pero en un fluido como el aire caen a ritmos diferentes dependiendo de su forma, masa y composición material. La introducción de estas influencias es un paso científico necesario hacia lo concreto. El “vació ideal” no es un estado deseado en ningún sentido, al menos para los seres humanos.
El capítulo pasa a analizar diversos patrones importantes que pudieren ser investigados más a fondo. Las crisis generales, incluyendo la presente crisis global desatada en 2007, se considera que suceden en fases recesivas de ondas largas consecutivas. La tarea ulterior es ligar la acumulación regida por el afán de lucro a los patrones recurrentes de onda larga. La igualación turbulenta de precios y tasas de ganancia a la luz de los cambios técnicos que se van produciendo engendran distribuciones persistentes para cada variable. El análisis de las tasas salariales sigue una lógica análoga, con el elemento adicional de que el trabajo es un sujeto activo en la división del valor añadido y los salarios serán diferentes en función de las ocupaciones incluso si se igualan en el seno de los mismos.

Estas consideraciones nos llevan a analizar las formas de la distribución salarial. La teoría de “dos clases” de distribución del ingreso de la Econofísica muestra que los ingresos procedentes del trabajo tienden a seguir una distribución de probabilidad exponencial (que tiene un coeficiente Gini = 0.50) y que los ingresos de la propiedad siguen distribución de una ley de poder (Pareto) Demuestro que el marco analítico desplegado en el capítulo 14 con el fin de analizar la relación agregada entre salarios y valor puede ampliarse para dar cuenta de las diferencias entre las empresas que surgen de la competencia y los diferentes oficios. Así trata de demostrarse cómo y por qué las distribuciones exponenciales o casi exponenciales de los ingresos procedentes del trabajo pueden surgir. Al mismo tiempo, el grado global de desigualdad como se mide mediante el coeficiente de Gini se muestra que depende únicamente en la proporción de renta de la propiedad con respecto a los ingresos del trabajo y del grado de financiarización de los flujos de ingresos. Esto implica que el alza dramática en la proporción entre ganancias y salarios que comenzó en los 80 (capítulos 14 y 16) puede verse como la base material del alza tan marcada consiguiente en la desigualdad de ingresos observada.

El Estado añade otra dimensión al análisis de la distribución de la renta: puede intervenir directamente en el equilibrio de poder entre capital y trabajo como en la era neoliberal (capítulo 14) y afectar al crecimiento y el empleo por medio de la política monetaria y fiscal. Ambas intervenciones pueden cambiar la distribución de la renta alterando los niveles absolutos y relativos de ganancias y salarios. También puede imponer tributos y transferencias para cambiar la distribución de ingresos después de impuestos. Pero uno debe dar cuenta igualmente de los efectos del gasto social sobre la sanidad, la educación y el bienestar general. Un hallazgo sorprendente es que el salario neto social, que es la diferencia entre impuestos y gasto social, es bastante reducido en los países más adelantados, promediando sólo el 1,8% del PIB y el 2,2% de la compensación de los empleados. Es el salario mercantil el determinante central del nivel de vida global de los empleados e incluso los mejores estados del bienestar sirven en su mayor parte para redistribuir estos ingresos.

Esto nos lleva a considerar el influyente superventas de Piketty “El Capital en el Siglo XXI”, que supone un muy bienvenido regreso a la tradición de fundar el análisis económico en patrones presentes y reales.

Su tesis principal es que el capitalismo posee una tendencia hacia una desigualdad creciente que sólo se interrumpe ocasionalmente por grandes conmociones como guerras mundiales, revoluciones y depresiones, porque la tasa de ganancia tiende a exceder la tasa de crecimiento (r > g) de modo que los que viven de las rentas pueden acumular más rápido que los que viven de su trabajo. Su explicación teórica se basa en la teoría económica ortodoxa, incluyendo el concepto de una función de producción agregada con sus propiedades genéricas.

Desde el punto de vista empírico, señalo que el enfoque EPTC previamente analizado puede explicar el grado global de desigualdad únicamente por medio de la proporción de ingresos de la propiedad en relación con los ingresos del trabajo, que se basa en sí mismo en la división del valor añadido en salarios y ganancia, y en el grado de financiarización de los flujos de ingresos resultantes. Desde el punto de vista teórico, en el argumento clásico la fracción salarial queda determinada por el grado de desempleo y el equilibrio de poder entre el trabajo y el capital en relación con la participación en la ganancia (capítulo 14)

La proporción entre capital y capacidad se determina por la elección de técnica que surge del imperativo de reducción de costes para las empresas individuales en el marco de la competencia (capítulo 7, sección VII) y la tasa de ganancia se determina conjuntamente por ambas. Las funciones de producción agregadas y los productos pseudo-marginales, hasta donde parecen existir, son meros artificios estadísticos (capítulo 3 sección II.2). Además, la tasa normal de ganancia es siempre mayor que la tasa normal de crecimiento, ya que aquella es la proporción entre el excedente y el stock de capital y esta última la proporción entre la fracción reinvertida del excedente (inversión) con el stock de capital (capítulo 15, secciones IV, VI)

Por último sostengo que la propia medida de Piketty de la tasa de ganancia es completamente incoherente: el stock de capital empleado como denominador no sólo incluye plantas y bienes de equipo, sino terrenos, inmuebles residenciales, y activos financieros netos, mientras que la medida de ganancia en el numerador excluye la renta, el interés, las ganancias de capital y otros ítems que componen el retorno sobre los activos secundaros. Esta es la razón por la que su tasa de ganancia sube en la Gran Depresión y baja en la bonanza de la última mitad de siglo, que es un hallazgo de lo más contradictorio.

A escala internacional, uno debe explicar la influencia potenciada de factores concretos como costes de transporte, tributos y aranceles, y el mucho más decisivo papel de la historia, la cultura y las limitaciones nacionales a la hora de canalizar la movilidad de la mano de obra. La ortodoxia económica presenta visiones de competencia perfecta y resultados macroeconómicos ideales para legitimar más dependencia de los mercados, mayor “flexibilidad” en los mercados laborales incrementando el poder de los patronos, privatizaciones de empresas estatales para que sus activos y empleados queden disponible para el capital nacional y extranjero, y la apertura de los mercados domésticos al capital extranjero y a los productos extranjeros.

La tradición heterodoxa ha solido argumentar contra estas medidas con fundamento en que la competencia no es algo que se imponga hoy en día. Yo sostengo que los patrones con los que nos encontramos a escala global son los esperados por la teoría de la competencia real: las naciones cuyos costes son inferiores gozan de ventaja competitiva bien porque hab podido bloquear o destruir a sus rivales de menor coste, o porque se han beneficiado históricamente de cierta intervención estatal y ventajas naturales. Nada de esto sería necesario sin la presión competitiva que emana del campo gravitatorio de la competencia global. No entender las manifestaciones concretas de estos universales capitalistas puede llevar a graves malentendidos sobre el proceso de desarrollo.

La segunda línea divisoria más importante en la literatura sobre el desarrollo se da entre las teorías ortodoxa y heterodoxa de la macroeconomía. Cuando se enfrentan con los disparates de los modelos de pleno empleo y expectativas racionales, parece sensato regresar a modelos de mark-up de monopolio y paro constreñido por la demanda. En la teoría post-keynesiana, las empresas están separadas de la competencia y las presiones de la demanda individual pueden engendrar las ganancias que desean por medio de un mark-up apropiado. El corolario agregado es que políticas fiscales y monetarias adecuadas pueden permitir que el Estado consiga una situación de práctico pleno empleo. Sin embargo, como hemos visto incluso en los países más desarrollados esas políticas acabaron fracasando (capítulo 12) El argumento clásico es que la competencia genera y conserva una reserva “corriente” de trabajadores parados, de modo que los intentos de cebar la economía para eliminar el paro no prosperarán a menos que vayan acompañados de políticas que hagan crecer la productividad más rápido que el salario real para compensar cualquier efecto negativo en la productividad, es decir, salvo si evitan que suban los costes reales unitarios de la mano de obra (capítulo 14)

El criterio para la competitividad internacional es idéntico, salvo porque aquí los costes laborales unitarios deben por lo general ser reducidos lo suficientemente rápido para que permanezca su ventaja con sus competidores internacionales, precisamente como se ha demostrado en el desarrollo exitoso pasado y presente. Al cabo, el capitalismo sigue estando limitado por las leyes de competencia real sobre las que se asienta.

(1) Como el gobierno mide el desempleo”. (Washington, DC: US Department of Labor, Bureau of Labor Statistics, 2001).

2 En sus notas, Sraffa dice que “la proporción entre sus agregados (tasa de plusvalor, tasa de ganancia) es aproximadamente la misma tanto cuando se miden en “valores” o en precios de producción correspondientes a cualquier tasa de plusvalor […] Esto es trivialmente cierto”. (Bellofiore 2001, 369).

FIN DE LA INTRODUCCIÓN

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Dic 22, 2016 1:15 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Capítulo II. Tendencias turbulentas y estructuras ocultas.

Este capítulo muestra los patrones característicos a largo plazo que se dan en los países capitalistas más avanzados. No se trata de una lista exhaustiva, pero sigue siendo esencial para el recto entendimiento de la fisonomía del sistema. Del donoso escrutinio que se verá se engendran naturalmente conceptos como recurrencia y regulación turbulenta. En las páginas que siguen, emplearemos casi siempre a los Estados Unidos como ejemplo principal debido a que es el país capitalista avanzado más poderoso y porque también es cierto que por lo general sus datos son los más fiables. No obstante lo cual los patrones de los que tratamos son bastante generales. Se detallan todas las fuentes de datos y métodos en el apéndice 2.1 y los datos están disponibles en las tablas de datos del apéndice 2.2.

I. Crecimiento turbulento.

Comenzaremos con una perspectiva a largo plazo. Las Gráficas 2.1-2.3 reflejan la trayectoria de la producción industrial, de la inversión real y del PIB real per cápita de EEUU, respectivamente, a lo largo de periodos de unos 150 años. La tendencia aparentemente ineluctable del sistema hacia el crecimiento resulta meridiana. Variables con tendencias tan acusadas como estas se reflejan por lo general a escala logarítmica, lo que significa que la tasa de crecimiento de una variable se representa por la pendiente de su gráfica. Resulta palmario después de analizar las gráficas que las tasas de crecimiento no son constantes a largo plazo. Por ejemplo bien se ve que tanto la producción industrial como la inversión, poseen una tasa de crecimiento media más elevada (pendiente) en épocas más tempranas. Por último es obvio que el crecimiento siempre es turbulento, y que la trayectoria de la inversión es mucho más turbulenta que la del output. Cualquier teoría correcta del crecimiento debe lidiar con este tipo de patrones.

Gráfica 2.1. Índice de Producción Industrial de EEUU, 1860-2010

Gráfica 2.2 Índice de Inversión Real de EEUU, 1832–2010

Gráfica 2.3 PIB real per cápita de EEUU 1889–2010
Las cuatro gráficas siguientes muestran el reverso del crecimiento: su turbulencia endémica. Reflejan las fluctuaciones de la producción en torno a su tendencia de crecimiento de 1831 al presente. Las Gráficas 2.4A-C son indicadores mensuales del componente cíclico de la actividad empresarial, compiladas por la Cleveland Trust Company (Ayres 1939, tabla 9, apéndice A, columna. 1).

El primer rasgo que resulta llamativo es la recurrencia de las fluctuaciones: peripecias sucesivas de bonanzas y depresiones de excesos y deficiencias en una secuencia interminable. Son irregulares pero su irregularidad está sujeta a ciertos límites. Otra cosa que destaca es la vinculación de las guerras con expansiones, y el final de las mismas con depresiones: la Guerra Imperialista contra Méjico, las dos Guerras Mundiales, la Guerra de Corea y la de Vietnam. Pero tal vez el más sugestivo elemento de todo ello es la recurrencia de episodios traumáticos que se reconocieron, en sus propios días, como “Grandes Depresiones”: en las décadas de 1840, 1870 y 1930. Se trata de fenómenos bien conocidos para los historiadores económicos. Hemos defendido anteriormente que se dio otra depresión en la década de los 70 (la Gran Estanflación) en todos los países más desarrollados (Shaikh 1987ª) y defenderemos en el capítulo 16 que estamos cerca de otra depresión que comenzó a finales de 2007. Las explicaciones de tales acontecimientos deben ser igualmente parte de cualquier teoría correcta del crecimiento capitalista.

Gráfica 2.4A Ciclos Económicos, 1831–1866

Gráfica 2.4B Ciclos Económicos, 1867–1902

Gráfica 2.4C Ciclos Económicos, 1903–1939

II. Productividad, Salarios Reales y Costes laborales unitarios reales.

Las trayectorias de los índices de la productividad en el sector de la manufactura (la producción por hora del trabajador) y la compensación real de los empleados, tal y como aparece en la gráfica 2.5, hacen salir a la luz nuevas consideraciones. El crecimiento de la productividad es esencialmente la medida del cambio técnico , y su crecimiento constante a largo plazo habla del papel fundamental que desempeña el progreso tecnológico en el desarrollo capitalista. Veremos en el capítulo 7 de esta obra que el cambio técnico es un imperativo de las empresas capitalistas que está arraigado en la propia naturaleza de la competencia guiada por el afán de lucro.

Gráfica 2.5. Productividad del sector manufacturero en EEUU y compensación Real por Trabajador en el sector de la producción. 1889-2009 (1889=100). Fuente: U.S. Bureau of Economic Analysis and Measuring Worth.com (1889 = 100).

Una de las mayores virtudes del capitalismo desarrollado es que los salarios reales también suben por lo general a largo plazo. Ciertamente con frecuencia parecen desplazarse “pari passu” con la productividad. Esto puede dar lugar a la errada impresión, incorporada en los “hechos básicos” (stylized facts) que son el cimiento sobre el que se han edificado muchos modelos económicos, que ambos están indefectiblemente. Pero la historia del capitalismo sabe cómo aplastar esos hechos que tan tranquilos nos dejan. La gráfica 2.5 deja claro que a comienzos de los años 80, cuando comenzó el asalto a los trabajadores encabezado por el presidente Reagan y potenciado también por la competencia extranjera, los trabajadores manufactureros americanos hubieron de padecer un notable estancamiento en sus salarios reales, que aún prosigue. El crecimiento de la productividad contribuye el fundamento material para una subida potencial en los salarios reales, y por lo tanto para un aumento potencial en el consumo real por trabajador. Sin embargo eso no quiere decir que el crecimiento de la productividad lleve aparejado automáticamente un aumento en los salarios reales. Es necesario construir mecanismos sociales e institucionales (después de duras luchas) para generar que ambos estén vinculados, y esta combinación siempre puede quebrantarse.

Además, incluso cuando estos eslabones obran correctamente, lo hacen dentro de ciertos límites estrictos. Y la razón es que el coste laboral unitario, la proporción de los salarios reales con la productividad tiene una importancia del más alto calibre para las empresas. . A nivel individual, los costes en mano de obra constituyen un componente importante de los costes totales, y para que las empresas individuales puedan mantenerse en la competencia, estos no deben subir en relación con los de sus competidores. Por consiguiente es la propia competencia la que empuja constantemente a las empresas a mantener bajos sus propios costes reales unitarios.

En un nivel macroeconómico, (agregado) un alza en los costes laborales unitarios reduce los márgenes de ganancia real. Teniendo esto en mente, la gráfica 2.6 muestra que la trayectoria de los costes laborales unitarios abarca distintos episodios: un declive de dos décadas de 1889 a 1909 mientras la productividad crecía con más celeridad que los salarios reales; dos décadas de estabilidad relativa de 1909 a 1929 cuando los salarios reales se iban acercando al crecimiento de la productividad; un alza anómala en la Gran Depresión cuando la producción y los precios (y por consiguiente el valor nominal añadido) se derrumbaron con mayor rapidez que la nómina salarial; de nuevo una cierta estabilidad relativa en la así llamada “Era Dorada” para los trabajadores americanos de 1947 a 1963; y medio siglo extraordinario de declive de 1963 a 2010. La estabilidad de los costes reales unitarios en la “Era Dorada” llevó a la creencia común de que los salarios crecían automáticamente junto con la productividad. Ese medio siglo de declive puso fin y acabamiento a esta quimera concreta. La realidad es que la relación entre los salarios reales y la productividad siempre ha sido conflictivo y que el equilibrio de poder entre el trabajo y el capital siempre puede variar (capítulos 4 y 14)

Gráfica 2.6. Índice de costes laborales unitarios reales de producción en el sector de la manufactura, 1889–2010

III. La tasa de desempleo.

La gráfica 2.7 muestra la trayectoria de la tasa de desempleo (oficial) de 1890 a 2010. Aporta un cuadró muy vivo del enorme impacto que las Grandes Depresiones ejercen en la vida económica. Los datos disponibles abarcan el final de la Gran Depresión de la década que comenzó en 1870 y todas las que empezaron en 1930 y 1970. Observamos que si bien abolir por decreto las depresiones es imposible, sí es posible mitigar algunas de sus manifestaciones. Si empleamos un marco de referencia histórico, las tasas de desempleo de los 70 y los 80 fueron las tasas sostenidas más elevadas desde las dos (anteriores) Grandes Depresiones. Pero los picos eran mucho más reducidos, y los niveles promedios se hallan únicamente alrededor de dos tercios. Esto puede hacer que recordemos que la política económica y la estructura social e institucional pueden ejercer efectos positivos sustanciales.

La pregunta que viene a la mente es esta: ¿cuáles son los costes y las consecuencias no deseadas? Lidiaremos con esta cuestión en el Capítulo 16, donde pasaremos revista a los distintos métodos de los que se sirvieron los países más desarrollados durante las Depresiones. Argumentaremos que una consecuencia de evitar una depresión es hacer que dure más. Reprimir los síntomas puede reprimir al tiempo la recuperación, como ha ocurrido con Japón en el último tercio del Siglo XX. Por otro lado, no se sigue que una depresión muy dura sea preferible a un periodo más largo de estancamiento. El coste para el capital y el trabajo es diferente en cada caso, y las instituciones desempeñan un papel muy importante distribuyendo los padecimientos.

Gráfica 2.7. Tasa de desempleo de EEUU. 1890-2010.

Al igual que los salarios reales, la tasa de desempleo tiene dos caras de la moneda. Desde la perspectiva de los trabajadores es aquello que calibra la demanda relativa de sus servicios. Como tal, ejerce un papel fundamental en la vida económica de una nación. Pero la tasa de desempleo es igualmente un factor clave que regula la fortaleza del eslabón entre el crecimiento de la productividad y los salarios reales: cuanto más alto sea el desempleo, más frágil será la fortaleza negociadora de los trabajadores frente al capital, y menos probable será que el crecimiento de la productividad vaya al compás del crecimiento del salario real. No sólo se da porque un paro elevado persistente debilite la posición relativa negociadora de los trabajadores sino porque también quebranta las instituciones favorables a los trabajadores (capítulo 14)

IV. Los precios, la inflación y la oleada dorada.

El término inflación significa una subida constante de los precios. En el moderno discurso económico la inflación ha sido tan omnipresente que ha adquirido un aura de fenómeno de la naturaleza. Resulta beneficioso por tanto contemplar el fenómeno con perspectiva histórica. La Gráfica 2.8 muestra los índices de precios del Reino Unido y Estados Unidos, junto con los índices correspondientes de precios en oro, a lo largo de intervalos prolongados (305 años en el Reino Unido y 205 en los Estados Unidos) Lo que se manifiesta de forma inmediata es que lo que denominamos “inflación” es un fenómeno moderno. Durante los cientos de años anteriores al periodo de postguerra, los países capitalistas se caracterizaban por oleadas sucesivas de precios que subían y bajaban. Únicamente en el periodo de postguerra comienza a observarse un nuevo patrón en el nivel de precios, un patrón en el que suben interminablemente.

Gráfica 2.8. Índices de Precios de EEUU y el Reino Unido, 1780–2010 (1930 = 100, Escala logarítmica)

Cuando se sitúan en idéntica escala como en la gráfica 2.8, las prolongadas variaciones en el nivel de precios anteriores a la década de los 40 quedan empequeñecidas y anonadadas por los incrementos seculares posteriores. Por consiguiente resulta de utilidad separar estos dos episodios, al igual que en la gráfica 2.9. Y entonces vemos que destacan dos cosas. Durante más de un siglo y medio de 1780 a 1940 la dinámica de los precios refleja variaciones distintas y prolongadas sin que aparezca una tendencia global. Es este rasgo que semeja una ola lo que subyace a la idea de “ondas largas” (a las que regresaremos en el capítulo 5). Pero después de 1940, los precios nunca dejan de subir. Esta fundamental mudanza en el comportamiento del nivel de precios exige claramente una explicación (capítulo 15) La comparación de los patrones anteriores y posteriores a 1940 suscita una tercera cuestión. En la era anterior no sólo tenemos prolongadas oleadas de precios, sino también grandes depresiones ligadas con las fases bajistas (downswing). Pero en era actual, la prolongada oleada en el nivel de precios parece haber sido aniquilada, y la gran estanflación de los 70 y 80 no estaba ciertamente vinculada en modo alguno con una caída en los precios.

Gráfica 2.9. Índices de Precios de EEUU y el Reino Unido, 1780–1940 (1930 = 100, Escala Logarítmica)

Así que parece que la vinculación entre las Depresiones y las prolongadas oleadas de precios fue cercenada de modo irrevocable en algún punto temporal alrededor de 1940. ¿Fue así? Vale la pena traer a la memoria que el precio de una mercancía es la expresión de su valor de mercado en términos de algo más, algo que se consagra socialmente como “dinero”. Pero el dinero no es un elemento unilateral. Conforma una serie de capas: dinero crediticio, que toma su fortaleza del vigor de un banco privado; la unidad monetaria nacional cuyo valor proviene de la fortaleza de un gobierno nacional concreto; y mercancías fáciles de intercambiar globalmente como el oro, cuyo estatus oficial o informal reside en el vigor de la circulación global de mercancías. Estas formas diferentes se engendran en la propia producción de mercancías, y se adoptan y son modificadas por el Estado. La competencia entre estas diversas formas monetarias se expresa por medio de las tasas de cambio existentes entre ellas. Cuando hay una quiebra bancaria, el dinero crediticio queda devaluado en relación con el papel moneda y los metales preciosos. En las peores circunstancias, las cuentas bancarias no son sino promesas incumplidas y una parte del dinero crediticio se desvanece. De modo análogo, cuando existen serias incertidumbres sobre el brío económico de una nación, su moneda puede devaluarse en relación con otras monedas nacionales, y también con respecto al oro, esa moneda (ahora informal) de último recurso en el sistema internacional. Si hay tipos de cambio “fijos” entre una moneda particular y el resto, se acumula la presión hasta que debe renunciarse a esas paridades monetarias. Del mismo modo, si existe un tipo fijo en el intercambio de una moneda con el oro (es decir, un precio oficial fijo del oro) se acumula idéntica presión hasta que tiene que renunciarse al precio oficial.

Resulta pues instructivo analizar los precios de EEUU y el Reino Unido no en términos de sus monedas nacionales respectivas, sino en términos del patrón común internacional del oro. Para efectuar esta operación, se necesita únicamente dividir el nivel de precios en cada país por el precio del oro en esa misma moneda. La Gráfica 2.10 refleja los niveles de precios en el Reino Unido y en Estados Unidos en esos términos. Las “oleadas áureas” resultantes nos muestran un fenómeno ciertamente fascinante. No sólo son claramente apreciables todas las prolongadas oleadas anteriores, con periodicidades muy cercanas a las planteadas originariamente por Kondratieff, sino que también existen dos patentes oleadas prolongadas en el periodo de postguerra. La primera llega a su cénit en 1970 y pasa a una fase vigorosamente bajista en los 70 y comienzos de los 80, el mismo periodo que se ha tildado de crisis económica general (van Duijn 1983, chs. 1–2; Shaikh 1987a). La segunda oleada llega a su punto culminante en 2000, y vemos que la crisis global que comenzó en 2007-2008 arribó a puerto según lo previsto (Capítulos 16 y 17)

Gráfica 2.10. Precios de EEUU y el Reino Unido en Onzas de Oro, (1930 = 100, escala logarítmica)

V. La tasa general de ganancia.

Las ondas prolongadas no son meras ondas de precios. Veremos que también son ondas en el crecimiento (es decir en la acumulación) Y este último, según defenderé, está regido principalmente por la tasa de ganancia. La Gráfica 2.11 muestra la trayectoria de la tasa general de ganancia real de EEUU, definida aquí, en terminología de la OCDE, como el excedente neto operativo agregado dividido por el stock neto de capital, ambos medidos en dólares constantes (apéndice 6.7) Vemos que de 1947 a 1982 la tasa de ganancia de EEUU cae en más de un 45%, y después cambia su curso. Naturalmente este fenómeno suscita un montón de preguntas. ¿Qué determina la trayectoria de la tasa de ganancia global? ¿Por qué sufrió un declive, y como se dio la vuelta al mismo? Esas preguntas llevan directamente a una cuestión ulterior: ¿Cómo podemos distinguir tendencias estructurales de los efectos de las fluctuaciones cíclicas y coyunturales anteriormente encontradas (Gráficas 2.4A–C)? El análisis de la tasa general de ganancia hará que podamos abordar la macroeconomía del crecimiento y los ciclos económicos.

Gráfica 2.11. Tasa de Ganancia de las Corporaciones de 1947 a 2011.

Por último, podríamos preguntarnos de qué forma el crecimiento está ligado a la rentabilidad. La tasa de ganancia que aparece en la Gráfica 2.11 supone la proporción entre excedente total neto operativo y el stock total neto del capital (fijo). Pero ese último no es sino lo que resta de la cosecha de todas las inversiones pasadas en plantas y bienes de equipo. Por consiguiente en cualquier momento del tiempo el stock de capital abarca el capital que fue empleado (digamos) hace treinta años, y el que fue puesto a trabajar sólo hace un año. Como no hay ninguna razón particular por la que una planta de 30 años deba tener la misma rentabilidad que una nueva, la tasa global de ganancia representa el promedio de la tasa de ganancia sobre las diferentes cosechas aún operativas. En tal sentido, supone una guía útil de la robustez del capital en su conjunto. Por idéntica razón, no sería una guía útil de la rentabilidad futura de cualquier inversión que estemos analizando ahora. La inversión presente (es decir, la acumulación) queda regulada por la rentabilidad estimada de su futuro desempeño. Es muy probable que tales estimaciones sean afectadas por los resultados del pasado reciente. Se necesita por tanto alguna medida de la tasa de retorno sobre la inversión reciente. La importancia crucial de esta cuestión se resalta en la sección siguiente.

VI. Arbitraje turbulento.

La tasa de ganancia es un elemento nuclear de la acumulación ya que el lucro es el fin de la inversión en el capitalismo, y la tasa de ganancia es la medida definitiva de su éxito. Puesto que el crecimiento es un aspecto inherente a la reproducción capitalista, siempre existe un flujo de nuevo capital hacia la mayoría de los sectores. Así pues, cuanto las tasas de ganancia sectoriales son desiguales, los nuevos capitales tienden a afluir con mayor celeridad a sectores en los que la tasa de ganancia es más elevada que el promedio, y más lentamente a aquellos en los que la tasa de ganancia es inferior. No se trata de una cuestión de entrada y salida, sino de aceleración y desaceleración. En los sectores con aceleración, el flujo más rápido de nuevo capital hará subir la oferta en relación con la demanda, haciendo descender los precios y las ganancias. Así pues la búsqueda de ganancias más elevadas tiende a disminuir las tasas de ganancia altas y a hacer crecer las tasas de ganancia más reducidas. Esto hace surgir una tendencia general a la igualación de las tasas de ganancia entre las diferentes ramas. Una tasa de ganancia igualada a grandes rasgos tiene el carácter de una propiedad emergente: nadie la desea, y sin embargo todos se sujetan a su dominio.

Es importante que se señalen diversos rasgos de este proceso de arbitraje. En primer lugar el movimiento es interminable, pues las tasas de ganancia siempre van por encima o por debajo de sus centros de gravedad en perpetuo movimiento. No se alcanza jamás un estado de equilibrio, sino más bien un equilibrio promedio que sólo se consigue por medio de errores compensadores perpetuos. Esto es el arbitraje turbulento, caracterizado por fluctuaciones recurrentes. En vez de una tasa de ganancia uniforme, la competencia genera en realidad una distribución constante alrededor del promedio (capítulo 17) En segundo lugar, como este proceso está regido por la dinámica del capital nuevo, las tasas de ganancia relevantes son aquellas que se obtienen de resultas de la nueva inversión. Son tales tasas de ganancia, y no aquellas con fundamento en las cosechas anteriores de capital, las que debemos esperar que se igualen en todos los sectores.
La gráfica 2.12 manifiesta las tasas medias de ganancia de los distintos sectores de la manufactura de EEUU, representando la línea gruesa el sector manufacturero en su conjunto (capítulo 7 y apéndice 7.1) Podemos ver que la turbulencia es un fenómeno normal respecto a la rentabilidad. Es en el marco de este clima en el que las empresas adoptan sus decisiones sobre la inversión en nuevas máquinas y nuevos métodos de producción. Una implicación manifiesta, en la que parece no ha reparado la literatura teórica, es que todas estas decisiones deben ser tajantes: teniendo en cuenta que las tasas de ganancia fluctúan bastante de año en año, todas las nuevas inversiones deben incorporar un margen de error sustancial.

La competencia real, y no la competencia perfecta, debe ser el punto de partida para el análisis del cambio técnico “la elección de técnicas”.

Gráfica 2.12 Tasas medias de ganancia en la manufactura en EEUU 1960–1989

Incluso si las tasas de ganancia que aparecen en la gráfica 2.12 están agrupadas, se muestran con frecuencia constantemente diferenciadas. La interpretación convencional de tales pruebas es que las diferencias se deben a cierta combinación de prima por los riesgos y poder oligopólico. Pero el cuadro cambia de todo en todo cuando analizamos las tasas de ganancia sobre las nuevas inversiones, es decir, la tasa incremental de retorno sobre el capital (Gráfica 2.13) Esto se mide aquí como el cambio en la ganancia bruta dividida por la inversión bruta efectuada en el año anterior (Christodoulopoulos 1995, 138–140; Shaikh 1998b, 395).

Entonces parece claro que las tasas de ganancia incrementales, al contrario que las tasas promedio se “entrecruzan” bastante, una y otra vez. Esto constituye la igualación de la tasa de ganancia en su forma verdadera: tasas incrementales que marchan en rápida sucesión de un nivel a otro, e incluso de magnitudes positivas a negativas, algo muy lejano de las plácidas riberas de los “márgenes” que dominan la economía ortodoxa; y la igualación turbulenta se da con recurrentes excesos y defectos, de forma muy diferente a esa igualdad “lograda y mantenida” que suele suponerse en los modelos teóricos. Estos fenómenos son analizados con prolijidad en el capítulo 7, sección VI.5, y sus implicaciones se despliegan en los capítulos 7 a 11. Veremos que la tasa incremental de ganancia desempeña un papel fundamental a la hora de explicar la dinámica de los precios de los bonos y del stock, y por lo tanto los tipos de interés (capítulo 10)
Pero por ahora volcaremos nuestra atención al papel más tradicional de la igualación de la tasa de ganancia para explicar la estructura a largo plazo de los precios industriales relativos.

Gráfica 2.13. Tasas de Ganancia Incrementales en la Manufactura de EEUU 1960-1989.

VII. Precios relativos.

El precio de cualquier mercancía puede representarse como el producto de dos elementos diferentes. El primero de ellos es el coste laboral unitario verticalmente integrado ligado a la producción de esa mercancía (Sraffa 1960, apéndice A; Pasinetti 1965; Kurz y Salvadori 1995, 85, 168–169, 178). Este es la suma de los costes laborales unitarios de la industria que produce la mercancía en cuestión, más los costes laborales unitarios de la serie de industrias que producen los insumos para las industrias que producen los insumos, y así sucesivamente. La integración vertical en esta acepción (analítica) comprende el coste laboral industrial total de producción de una mercancía determinada. El segundo elemento es la proporción verticalmente integrada de ganancias y salarios vinculada con la misma industria. Es un promedio ponderado de la proporción entre ganancia y salario en la industria que produce la mercancía, más la proporción entre ganancia y salario en la serie de industrias que producen los insumos, más la proporción entre ganancia y salarios en la serie de industrias que producen los insumos para los insumos, y así sucesivamente.
Adam Smith tuvo el honor de ser el primero que efectuó tal desagregación, con un argumento verbal. Es bastante sencillo reproducirlo analíticamente (una vez que un gran pensador ha abierto el camino) David Ricardo razonó de forma análoga para defender que los precios relativos de cualesquiera dos mercancías estarían sometidos a la proporción de sus costes laborales verticalmente integrados. Su límite superior en cuanto a la influencia del elemento restante era del 7%. Así pues, en su estimación, los costes laborales unitarios verticalmente integrados deberían dar cuenta de al menos el 93% de la estructura inter-industrial de los precios relativos. Con escasas pero notables excepciones, esta teoría del precio del “93%” ha sido largo tiempo escarnecida por los economistas modernos con fundamentos teóricos.

Siempre resulta ilustrativo analizar las pruebas empíricas reales. La Gráfica 2.14 muestra la relación entre los precios de mercado observados y los precios proporcionales a los costes laborales unitarios verticalmente integrados (precios directos) en cada uno de los 71 sectores de la tabla insumo-producto de los EEUU en 1972. El eje de ordenadas representa el valor de mercado del producto total de cada sector (es decir su precio mercantil unitario multiplicado por su producto total), en tanto que el eje de abscisas representa el valor monetario directo correspondiente de los mismos productos. Se han escalado las dos series de precios para que den el mismo total. También se ve en la gráfica una línea de 45 grados, para poder acceder a una comparación visual. De 1947 a 1998 la desviación absoluta promedio de los precios mercantiles observados con respecto a los precios directos es del 15,4%.

Pero lo que preocupaba a David Ricardo era los precios competitivos a largo plazo, no los precios de mercado, y cuando hablamos de la tasa de ganancia real en cada ejercicio la desviación media de los precios competitivos en relación con los precios directos es del 13,2% (capítulo 9, tablas 9.9, y 9.13). Para expresarlo en términos de Ricardo, alrededor del 87% de la estructura inter-industrial de los precios competitivos a largo plazo puede ser explicada con los costes laborales unitarios directos e indirectos. Como suele ser el caso, la gran mayoría de los teóricos están muy lejos de la verdad. Esta cuestión se estudia a fondo en el capítulo 9 y los datos se extraen de EEUU y de los países de la OCDE. La preocupación central, como de ordinario, es explicar por qué se dan esos resultados y extraer las implicaciones correctas para emplearlas en el análisis de la dinámica a largo plazo de los precios relativos.

Gráfica 2.14. Precios de Producción Normalizados totales versus Costes Laborales Unitarios Totales, Estados Unidos, 1972 (71 industrias)

VIII. Convergencia y divergencia a escala mundial.

Damos fin a este capítulo con una perspectiva global sobre el desarrollo económico a largo plazo, basándonos en data del monumental trabajo de Maddison (2003). La Gráfica 2.15 sigue la pista a las tendencias en el PIB real per cápita de 1600 a la actualidad, en cinco regiones principales del mundo: Europa Occidental, países colonizados por potencias Europeas (Estados Unidos, Canadá, Australia y Nueva Zelanda), Iberoamérica (incluyendo el Caribe) Asia (tanto occidente como oriente) y África. Pues que todos los datos aparecen a escala logarítmica, las pendientes de las curvas representan tasas de crecimiento. Una vez más, comprobamos que el crecimiento en el nivel de vida es un rasgo característico del desarrollo capitalista que tiene éxito. Pero al mismo tiempo, en las regiones que están atrapadas en los residuos del capitalismo, como Asia y África, nos encontramos con estancamiento e incluso con un cierto declive durante casi tres siglos.
También comprobamos que las clasificaciones pueden cambiar, como es el caso de las colonias occidentales, que sobrepasaron a la madre patria a mediados del siglo XIX, de Iberoamérica escapando del grupo de las naciones más pobres un cuarto de siglo después, y de Asia sobrepasando claramente a África en medio del siglo XX.


Gráfica 2.15 PIB per cápita de las regiones del mundo, 1990, En dólares internacionales International Geary–Khamis (Escala logarítmica)

También resulta patente una tendencia histórica hacia una desigualdad creciente a escala mundial. Ya hemos señalado que el desarrollo capitalista no es sólo una cuestión de progreso desigual, sino de progreso para algunos junto con periodos prolongados de pérdidas para otros. Comparar el PIB per cápita de las regiones más ricas y más pobres en cualquier punto temporal, rinde una proporción de 2.2 en 1600, 2.4 en 1700, 2.8 en 1820, 6.7 en 1900, y 18.5 en 2000. Es precisamente en los días de gloria del capitalismo industrial, en los dos últimos siglos, cuando esta proporción se ha precipitado en un 564%. E incluso este alza no logra representar en la medida adecuada la verdadera divergencia entre las naciones ricas y pobres ya que Asia incluye Japón, Corea del Sur y varios países ricos en recursos petrolíferos, mientras que África comprende África del Sur, Egipto y otros países. La Gráfica 2.16 muestra por consiguiente el PIB per cápita de los cuatro países más ricos y más pobres del mundo en 1600, 1700, 1820 y en todas las décadas posteriores (apéndice 2.1 Fuentes de Datos y Metodología). Un rasgo notable es la enorme caída del PIB per cápita del país pobre en el periodo de postguerra, y nuevamente durante la época neoliberal (después de 1980) La gráfica 2.17 sigue la pista a la proporción correspondiente entre ricos y pobres, que asciende al 2.8 en 1600, al 3.4 en 1700, a 3.8 en 1820, a 7.1 en 1900 y a 64.2 en 2000.

La desigualdad creciente es un rasgo general del capitalismo a escala mundial, y tiende a acelerarse con el desarrollo capitalista, como aconteció a mediados del siglo XIX y durante la era neoliberal (ver apéndice 2.1, Tabla 1)

Gráfica 2.16. PIB per cápita de los cuatro países más ricos y más pobres, en dólares internacionales Geary–Khamis Dollars (Escala logarítmica)

Gráfica 2.17. Proporción PIB per cápita de los cuatro países más ricos con respecto a los cuatro más pobres, en dólares internacionales Geary–Khamis Dollars (Escala logarítmica)
IX. Resumen y conclusiones.

Este Capítulo ha tratado de mostrar que las economías capitalistas que prosperan se caracterizan por vigorosas trayectorias a largo plazo. Las sendas del producto real, de la inversión y de la productividad demuestran que ciertamente el crecimiento y prestaciones sociales crecientes han sido rasgos fundamentales del sistema. Esta es una perspectiva desde la distancia, en la que el orden subyacente del sistema se impone en el cuadro general. Pero cuando se mira más detenidamente, estas mismas trayectorias muestran que el crecimiento del sistema siempre se manifiesta por medio de fluctuaciones recurrentes, interrumpidas por “Grandes Depresiones” periódicas. Por ello, es el desorden, con su coste social asociado, el que se impone en esta perspectiva. Estos dos aspectos son inescindibles, por supuesto, ya que en este sistema, se obtiene orden por medio del choque entre desórdenes diversos. Así es como funciona la famosa mano invisible.

El cambio técnico constante como se expresa en la productividad siempre creciente del trabajo es otro rasgo característico. Aporta el cimiento material para el crecimiento histórico de los salarios reales y el consumo real por trabajador. Pero en este punto los determinantes sociales intervienen más abiertamente. Los mecanismos institucionales y legales ofrecen a los trabajadores los medios de compartir los beneficios del crecimiento en la productividad del trabajo.

No obstante, puesto que la proporción de los salarios reales con respecto a la productividad del trabajo define los costes laborales unitarios reales, las empresas se ven sujetas a un poderoso incentivo para resistir aumentar los salarios reales al ritmo del crecimiento de la productividad o por encima de él. La guerra entre estas dos fuerzas puede hacer que se produzca un viraje drástico en el equilibrio: los salarios reales de los trabajadores de las manufacturas se han estancado desde comienzos de los 80, en tanto que la productividad ha seguido subiendo, de modo que los costes laborales unitarios han caído de forma acentuada durante dos décadas. El elevado desempleo de los 80 y el ataque a las instituciones y al movimiento obrero quebrantaron la capacidad del trabajo para pelear por mejoras salariales, mientras que la exposición cada vez mayor de las manufacturas de EEUU a la competencia extranjera intensificaron en gran medida su deseo de reducir costes. Las instituciones importan, pero siempre obran en el seno de los límites fijados por la competencia y la acumulación.

El capítulo ha investigado asimismo la curiosa historia de los niveles de precios del Reino Unido y de los Estados Unidos. Durante siglos, los precios han mostrado prolongados virajes sin que sea apreciable una tendencia a largo plazo. En el Reino Unido, por ejemplo, el índice numérico del nivel de precios en 1940 era idéntico que en 1720.

A lo largo de este intervalo las “ondas largas” de precios dominaban el cuadro general, pero no se apreciaba una tendencia global. Sin embargo, en todo el mundo capitalista en el periodo de postguerra la trayectoria experimentó un dramático viraje.

Los precios comenzaron a crecer con rapidez, y la inflación comenzó a parecer un fenómeno de la naturaleza. Las ondas largas parecen haber desaparecido. ¿Fue así? Expresando los niveles nacionales de precios en términos de un patrón común internacional (oro) en vez de en las propias monedas nacionales revela un cuadro pasmoso de “prolongadas ondas doradas” que siguen hasta la actualidad. Ciertamente, la crisis económica que estalló en 2007, la primera Gran Depresión del Siglo XX, llegaron según lo previsto. Su origen y su dinámica global se abordarán con minuciosidad en el capítulo 16.

La consideración de la rentabilidad ha llevado aparejada una serie de otras cuestiones. La tasa general de ganancia en los Estados Unidos descendió de forma acentuada de 1947 a 1982, y después experimentó una recuperación sólo parcial. Eso suscitó la cuestión del modo en que la inversión está ligada a la rentabilidad, lo que a su vez nos llevó a diferenciar entre tasas promedio de ganancia e incrementales. Se argumentó que sólo aquellas son relevantes para el capital nuevo (es decir para la inversión) Como tales, sólo ellas deberían igualarse por la movilidad del (nuevo) capital entre las diferentes ramas. Un análisis de las tasas de retorno medias e incrementales en diversas ramas de la manufactura de EEUU reveló justamente eso: las tasas medias siguieron siendo en gran medida distintas, pero las tasas incrementales “cruzaron sus caminos” muchas veces.

Las tasas relativas de retorno también desempeñan un papel en la determinación de los precios competitivos a largo plazo. En el seno de la tradición clásica, su papel es menor, ya que el grueso de la estructura de los precios industriales relativos es de esperar que sea dominado por los costes relativos laborales unitarios (verticalmente integrados) directos. Ricardo calculó que la rentabilidad relativa daría cuenta de no más del 7% de las variaciones en los precios relativos, dejando el resto a los costes laborales unitarios. Esta teoría del “93%” ha sido ridiculizada por casi todos los teóricos. Sin embargo las pruebas empíricas les desmienten categóricamente: en 71 sectores de las tablas insumo-producto de 1947 a 1998, la desviación media absoluta de los precios competitivos a largo plazo y los costes laborales unitarios verticalmente integrados es del 13,2%, lo que no está muy lejos que digamos de los cálculos del gran Ricardo.

El capítulo ha finalizado con una perspectiva global que contempla tres siglos. Hemos visto que el capitalismo en Europa Occidental y en las Colonias de Ascendencia Europea (Estados Unidos, el Reino Unido, Australia y Nueva Zelanda) generó un nivel de vida creciente en esas regiones. Al mismo tiempo, sus posesiones coloniales en Asia y África se estancaron e incluso sufrieron un declive durante la mayoría de este periodo. Un análisis del PIB per cápita relativo de las regiones más ricas y más pobres revela un crecimiento constante de la desigualdad en un mundo atrapado en las redes capitalistas.

El mundo que se nos ha legado es producto de esta historia. El PIB anual per cápita de los países más ricos supera los 30.000 dólares, mientras que el de los más pobres es menor que 1.000 dólares. Pero incluso está última cifra llama a engaño ya que la distribución de la renta en los países más pobres es atrozmente desigual. Según las estadísticas del Banco Mundial, a comienzos de la crisis global de 2008, ¡casi la mitad de la población mundial, 2.100 millones de personas, vivía con menos de 2 dólares al día y 880 millones con menos de un dólar al día! (Banco Mundial 2008)
El gran debate de nuestros tiempos es si estas deficiencias pueden remediarse reforzando, frenando o enmendando el capitalismo, o acelerando su diseminación por todo el globo. Este libro se centra en el análisis económico de los países más desarrollados como fundamento para un análisis ulterior del desarrollo global y del desarrollo. Las trayectorias que ha mostrado este capítulo, y otras que aún están por elucidar, se hallan firmemente arraigadas en este sistema. Las intervenciones sociales y económicas tienen su parte dentro de los límites prescritos por estos procesos. Nuestra tarea teórica es mostrar cómo están ligados.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Dic 22, 2016 10:04 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Capítulo 3. Microfundamentos y trayectorias macroeconómicas

“En las ciencias sociales padecemos una curiosa demencia […] las doctrinas ortodoxas den la economía, la política y el derecho se basan en la premisa tácita de que el comportamiento humano se rige por el cálculo racional […] Incluso cuando la verdad es justamente lo contrario”. (Mitchell 1918, 161)

I. INTRODUCCIÓN.

El capítulo anterior trató de demostrar que las economías capitalistas más prósperas se caracterizan por ciertos vigorosos patrones a largo plazo en los que el orden y el desorden van de la mano. Esto suscita al punto dos cuestiones metodológicas fundamentales. En primer lugar, puesto que el capitalismo es un sistema social dinámico en el que la cultura, el marco institucional y las políticas públicas varían de forma sustancial a largo plazo, ¿cómo es posible que las interacciones presentes de generaciones sucesivas de millones de individuos puedan generar trayectorias estables y recurrentes? Y si podemos dar cumplida respuesta a la primera pregunta, inmediatamente aparece una segunda: ¿Qué nociones teóricas de equilibrio, procesos de ajuste y dinámica económica son apropiadas para reflejar la índole de los patrones turbulentos que encontramos en la realidad?

La primera cuestión nos lleva a la relación entre los procesos microeconómicos y los patrones macroeconómicos. La Microeconomía es importante porque es verdad que los agentes individuales poseen libre albedrío y toman decisiones, y esas decisiones tienen consecuencias personales y sociales. Es verdad que los incentivos son importantes, y que afectan a las decisiones individuales. Pero de todo ello, siendo cierto, no se sigue que la toma de decisiones individuales se caracterice por someterse a las normas de la así llamada teoría de la elección racional y de las expectativas racionales o por los incentivos reduccionistas que incorporan (es decir, se habla de un comportamiento que muestra racionalidad extrema)

Tampoco que sigue que los conjuntos puedan analizarse en términos de agentes representativos. Veremos que las pruebas históricas, empíricas y analíticas contra el comportamiento extremadamente racional y el concepto de los agentes representativos son sencillamente abrumadoras. Además, una explicación de los hallazgos empíricos fundamentales puede derivarse de un amplio elenco de modalidades de toma de decisiones individuales debido a las estructuras que dan forma a estas, como las restricciones presupuestarias o las influencias sociales y del entorno, que desempeñan papeles decisivos a la hora de engendrar patrones agregados. Los constructos tradicionales no son ni sostenibles ni relevantes.

Una vez que se comprende que muy diversos géneros de micro-fundamentos pueden dar lugar a los mismos patrones de mercado o en la economía en su conjunto, podemos dividir la microeconomía en dos clases de proposiciones: (1) proposiciones cimentadas empíricamente que pueden derivarse de una amplia variedad de microfundamentos: curvas de demanda con pendiente decreciente, elasticidades de renta diferenciales con respecto a los bienes básicos, funciones de consumo regidas por el ingreso, y así sucesivamente, y (2) proposiciones que dependen de la descripción específica del comportamiento individual: en las que el supuesto cimiento es la elección racional (esta última serie comprende los teoremas corrientes acerca de la eficiencia, armonía, y resultados generalmente óptimos de los procesos mercantiles). La ventaja de este modo de proceder es que amplía en gran medida el espacio para posibles descripciones del comportamiento económico individual, preservando al tiempo patrones microeconómicos claves que desempeñan un papel importante en el análisis económico.

No debe entenderse de lo dicho hasta ahora que los procesos a nivel micro carecen de importancia. Por el contrario, desempeñan un papel central al determinar las trayectorias de los individuos y a la hora de valorar las implicaciones sociales de los resultados macro. Además, pueden ser decisivos a un nivel agregado si la gente se decanta por obrar en concierto, como es el caso de un paro laboral, un boicot de los consumidores o manifestaciones masivas. El libre albedrío siempre está presente, en las decisiones individuales y a veces en las colectivas. Por consiguiente debemos comprender cómo se comportan los agentes individuales en la realidad, cómo reaccionan realmente a los cambios en el entorno macroeconómico, y en qué medida el entorno resulta afectado a su vez.

Se pueden extraer dos conclusiones en este punto. En primer lugar, que una correspondencia con los hechos empíricos agregados no da primacía a un enfoque particular de los procesos microeconómicos: muchos caminos llevan a Roma, modificando un poco el famoso proverbio. Y en segundo lugar, cuando uno analiza cómo se comportan las personas en realidad, la hipótesis del modelo del homo economicus es francamente muy deficiente.

Vale la pena señalar que la división presente de la teoría económica entre microeconomía y macroeconomía es relativamente nueva. La teoría clásica solía comenzar con una teoría de los precios, que establecía el fundamento para el posterior análisis del crecimiento, el empleo y el comercio exterior. Fue Keynes quien sugirió en primer lugar la división moderna entre el análisis del comportamiento de los agentes individuales y de los conjuntos económicos. (Janssen 1993, 5). Para Keynes, los conjuntos obran conforme a reglas diferentes que individuos y los resultados que alcanzan.

Comprobaremos que Kalecki y Friedman trazaron idéntica distinción (ver la sección IV de este capítulo) Lucas adoptó una posición diametralmente opuesta: la macroeconomía debía ser absorbida por la microeconomía. La crítica subsiguiente de Lucas a la macroeconomía de corte keynesiano abarcaba cuatro proposiciones. Se dice que la estructura es una propiedad emergente de las reglas individuales de elección del agente. Un cambio en el entorno (por ejemplo en la política económica) modificará el comportamiento individual y por ende la estructura. Por ello, los modelos que se basan en trayectorias pretéritas no pueden utilizarse para predecir los efectos de las variaciones potenciales en el entorno porque la propia estructura será distinta. Se sigue que las reglas de comportamiento micro rigen los resultados macro. (Salehnejad 2009, 22–25). El meollo de la conclusión de Lucas es que si se hacía bien la integración de la macroeconomía en la microeconomía, “el término macroeconomía sencillamente entraría en desuso y la expresión micro se tornaría superflua. Hablaríamos simplemente […] de teoría económica. (Lucas 1987, 107–108).
Los modernos fundamentos micro neoclásicos edifican su teoría sobre tales cimientos añadiendo además cinco tesis adicionales:

• Se supone que los agentes individuales maximizan la ganancia o la utilidad esperada.
• Sus expectativas son correctas en esencia en un estado de equilibro.
• Se supone que el equilibrio se da en la práctica.
• El comportamiento colectivo de un agente tipo concreto puede ser modelado basándose en un único agente representativo que se comporte de forma racional y que tenga expectativas racionales.
• Y solo la macroeconomía que así se derive de la microeconomía puede merecer el nombre de científica y rigurosa.

Se daba por entendido que este concreto enfoque económico tenía que estar en consonancia con las leyes empíricas agregadas de la microeconomía, como los efectos de los precios y del ingreso en la demanda, al igual que con los patrones macroeconómicos observados en el producto, el consumo y la inversión. Pero resulta bastante interesante, por no decir peculiar, que este enfoque no se siente obligado a imitar los patrones empíricos en los comportamientos individuales. En ese nivel el supuesto del comportamiento económico híperacional es siempre el punto de desviación. (Capítulo 12)

La primera parte de este capítulo lidia con las cuestiones relevantes, la elección racional, la teoría de la complejidad y las propiedades “emergentes” de los conjuntos (resultando estos últimos una forma moderna de expresar la añeja idea de que el todo puede ser mayor que la suma de sus partes) Se argumenta que no existe razón para estar sometido al modelo convencional de comportamiento extremadamente racional, ya que ni es descriptivo del comportamiento real, ni útil como patrón normativo. La caracterización de resultados agregados por medio de un “agente representativo” no da resultado salvo en supuestos triviales. La función real de la idea de un agente representativo extremadamente racional es servir al objetivo misionero de la economía neoclásica, que es pintar al capitalismo como un sistema tan óptico como eficaz. En tal sentido resulta un instrumento perfectamente idóneo para el objetivo que presente. Por último se demuestra que surgen patrones agregados estables a partir de las estructuras subyacentes que dan forma (restricciones presupuestarias y distribuciones de renta) y no de las minucias de los comportamientos individuales. A modo de ejemplo, mostraré que los más importantes patrones empíricos de la teoría del consumidor (curvas de demanda de pendiente decreciente, curvas de Engel para bienes básicos y productos de lujo, y funciones de consumo agregadas) así como de la teoría de la producción (funciones agregadas de producción) pueden derivarse todas ellas de un amplio elenco de microfundamentos distintos. En el capítulo 14 se abordará de modo análogo la cuestión de los salarios reales. En circunstancias normales, los resultados macroeconómicos son “radicalmente insensibles” a los detalles de los procesos microeconómicos. Eso no significa que los procesos micro sean desdeñables. Los factores micro tienen su parte a la hora de determinar las trayectorias individuales y pueden ser decisivos si las personas se decantan por actuar de forma concertada para (digamos) ponerse en huelga o realizar un boicot de consumo, y son especialmente importantes a la hora de valorar las implicaciones sociales de los resultados macro. Todo lo dicho implica que la correspondencia con los hechos empíricos conjuntos no otorga primacía a cualquier enfoque concreto de los procesos micro. Si uno quiere analizar si el homo economicus es un buen modelo del comportamiento humano real, uno debe fijar la vista con su correspondencia con el comportamiento individual real. Y en lo que a esto respecta, las pruebas son abrumadoramente negativas. La segunda pregunta planteada por el análisis de los patrones empíricos reales nos lleva a trazar la distinción crucial entre el concepto convencional de equilibrio como un estado alcanzado y el concepto clásico de equilibrio como un proceso gravitatorio. En la idea anterior, el tiempo y las turbulencias desaparecen de la perspectiva, y el foco se pone en los estados de equilibrio y en las trayectorias constantes. En el concepto clásico, el equilibro exacto nunca se da como tal en la realidad porque el proceso en que se genera el equilibrio es intrínsecamente cíclico y turbulento.

La consideración de géneros diversos de elementos de atracción estables y su comportamiento frente a conmociones recurrentes muestra que la gravitación turbulenta es el supuesto general. El centro de gravitación, la trayectoria mediante la que se llega al equilibrio, se analiza a renglón seguido, mostrándose que el crecimiento turbulento en las variables fundamentales puede tener encaje expresándolo por medio de un sistema dinámico en términos de las proporciones de las variables o a los menos de sus tasas de crecimiento.

Por último, las dimensiones temporales implicadas en los procesos turbulentos de gravitación son asimismo objeto de análisis, que abarca desde la igualación de las tasas de ganancia a la demanda y la oferta agregada en los mercados de trabajo, financieros y de mercancías. Se fija una ligazón entre tales procesos y los diversos ciclos económicos, y se propone igualmente una tipología global de ritmos de ajuste.

II. PROCESOS MICRO Y PATRONES MACRO.

Una cosa es estudiar cómo se comportan las personas en el mundo real y otra postular como deberían comportarse. Cuando queremos saber cómo y por qué la gente se comporta como lo hace, debemos acudir a la economía del comportamiento, a la antropología, la psicología, la sociología, la ciencia política, la neurobiología, los estudios de negocios y la teoría evolutiva. Descubrimos que las raíces evolutivas, el legado cultural, las estructuras jerárquicas y nuestra propia historia personal influyen en nuestro comportamiento; somos animales sociales, dentro de los confines de nuestro legado evolutivo. (Angier 2002; Zafirovski 2003, 1, 6–8; Ariely 2008, chs. 4–5, 9). Existen abundantes pruebas que muestran que no ordenamos nuestras preferencias de forma coherente, somos malos jueces de las probabilidades existentes, no afrontamos los riesgos de forma “racional”, incurrimos en una profusa variedad de errores lógicos, y basamos generalmente nuestro comportamiento en usos y reglas de oro. (Simon 1956, 129; Conlisk 1996, 670–672; Anderson 2000, 173; Agarwal and Vercelli 2005, 2). Al cabo, y por desgracia, no somos “de noble razón, infinitos en facultades”. Por el contrario, somos en realidad “bastante flacos en nuestras preocupaciones […] y nos hallamos sometidos a fuerzas que escapan en gran medida a nuestra comprensión”. (Ariely 2008, 232, 243). Y como cualquier publicista experto puede contarnos, es bastante fácil manipular nuestras preferencias, y nuestras reacciones por lo general son bastante predecibles.
Pero la economía neoclásica, haciendo caso omiso a esta plétora de pruebas, sigue insistiendo con incomprensible cabezonería en pintar a los individuos como máquinas egoístas y calculadoras, de noble razón, infinitos en sus facultades, y por lo general inmunes a influencias externas. La introducción en el análisis del riesgo, la incertidumbre y los costes de obtener información modifica las restricciones que hay que afrontar pero no el modelo básico de comportamiento. (Furnam and Lewis 1986, 10). Denominaré a esto la doctrina de la “racionalidad extrema” para distinguirla de una idea más general de “racionalidad” que alude a la creencia o principio de que las acciones y opiniones deben fundarse en la razón. De lo que aquí se trata es de sustraerse al uso neoclásico de pintar la racionalidad extrema como perfecta y el comportamiento real como imperfecto. Si, dijera Hegel lo que dijera, todo lo real es irracional, estamos en un mundo patas arriba.
La cuestión no es si los incentivos económicos importan, sino más bien cómo importan. Los incentivos económicos no cabe duda de que influyen en las decisiones individuales y en los resultados sociales. Pero también lo hacen las oportunidades económicas y una gran variedad de motivaciones y límites que no tienen naturaleza económica. El problema que tenemos entre manos es el siguiente: ¿Por qué razón la economía neoclásica sigue insistiendo en una representación brutalmente reduccionista del comportamiento humano individual? Hay que lidiar con dos dimensiones del problema: (1) La racionalidad extrema como modelo de comportamiento real; y (2) la racionalidad extrema como un ideal platónico de comportamiento.

Por lo que a lo primera proposición respecta, la racionalidad extrema desempeña un papel crucial a la hora de describir el capitalismo como el sistema social óptimo ya que (entre otras cosas) y ese retrato exige que todos los individuos conozcan exactamente lo que quieren y consigan exactamente aquello que persigan.

Esta necesidad inmanente lleva a una diversa serie de tentativas de justificar la confianza en tales supuestos. Tenemos la tesis tolemaica de que tenemos que aceptar los supuestos de racionalidad extrema puesto que es lo que hacen los economistas (serios). Tenemos la tesis empírica de que se trata de una buena aproximación al comportamiento real de la gente, con la única tacha menor de que sus defensores deben escalar la elevada cumbre de las pruebas empíricas en sentido contrario. (Conlisk 1996, 670).

Después tenemos el argumento basado en la comodidad, ya que la racionalidad extrema nos otorga resultados analíticos tratables, lo que, como observa Kirman (1992, 134), “se corresponde con el comportamiento de una persona que, habiendo dejado caer sus llaves en un lugar oscuro, se pone a buscarlas en un lugar donde haya luz porque es más fácil encontrarlas allí”. En el otro extremo tenemos el argumento retorcido de Friedman consistente en que como la racionalidad extrema rinde buenos resultados empíricos, cualquier crítica de este supuesto es irrelevante. (Samuelson 1963, 232). El problema con la hipótesis de Friedman es que una serie de supuestos dada contiene implicaciones empíricas que van más allá de aquello que la persona que se sirve de ellas quiere investigar, y al menos en los confines y reglas del discurso científico, otros estudiosos pueden perfectamente explorar otras vías. Ciertamente, si se parte de una serie diferente de supuestos eso suele hacer que surjan cierta serie de predicciones empíricas, por lo que el único modo de distinguir entre distintos modelos es ampliar su alcance empírico hasta que sus predicciones sean diferentes. Cuando se pone en práctica lo anterior, lo que tiene precisamente trascendencia son los supuestos. Explicaremos más a fondo este argumentación en la siguiente sección.
También nos encontramos con la proposición de que “se puede definir los intereses de una persona de forma que con independencia de lo que haga se puede pensar que está tratando de servir a sus propios intereses”. (Sen 1977, 322). Pero en la medida en que tomemos en serio este aserto, los problemas nacen como por ensalmo. Por ejemplo, si te gusta que otras personas estén bien, uno podría argumentar que eres tan egoísta como otros a los que no se les da un ardite el bienestar ajeno. Esto es igualmente aplicable si uno obtiene placer del mal ajeno (que después de todo es “meramente”, bienestar negativo). En esta escala patológica, el narcisista, el buen samaritano y el psicópata son todos parecidos. Incluso entonces, sólo el caso del narcisista “funciona” bien en la economía ortodoxa: las interacciones entre los individuos suelen crear externalidades y estas tienen que descartarse en los modelos convencionales de equilibrio general y esto socava el bonito cuadro del capitalismo como el mejor sistema social. (Sen 1977, 328).

La Teoría de la Preferencia Revelada es una versión operativa de esta misma hipótesis de “egoísmo definitorio” y su tentativa de imputar una racionalidad extrema al comportamiento real lleva aparejada dificultades bien conocidas. Como mínimo, se trata de una hipótesis que exige que el comportamiento individual manifieste trayectorias concretas para justificar al menos la imputación de racionalidad extrema. Si alguien elige x en vez de y, e y en vez de z, pero también z en vez de x, ese comportamiento refuta la idea de racionalidad extrema y se tiene por irracional. También la elección de x en vez de y en un contexto, e y en vez de x en otro. Si esos cambios de clasificación se dan a lo largo del tiempo una o dos veces, uno puede tratar de agarrarse a un clavo ardiendo para rescatar la teoría suponiendo que los “gustos” de la persona han cambiado en el intervalo. Pero esto es entrar en un territorio minado, ya que la estabilidad de la estructura de preferencias constituye un atributo esencial en la doctrina convencional, y no se puede consentir que cambien los gustos con demasiada frecuencia. La conducta caprichosa queda rigurosamente prohibida. Y un problema todavía más profundo es que todas esas tentativas de imputar motivaciones concretas al comportamiento humano no toma en cuenta una fuente de información trascendental, que es lo que dicen las propias personas acerca de sus motivaciones. (Sen 1977, 322–323, 325, 335–336, 342–343). Para hacer caso omiso de esa información uno tiene que decir que la gente sabe exactamente lo que quiere y lo que puede obtener, pero que de alguna manera no saben que lo saben. Esto tiñe el argumento de ciertos problemillas lógicos. Binmore (2007, 2) nos cuenta que “incluso cuando la gente no ha meditado todo de antemano, no se sigue que se comportan necesariamente de forma irracional”. Sigue diciendo que incluso los “animales sin conciencia” como las “arañas y los peces” pueden “acabar comportándose como si fueran racionales”, porque la evolución los ha programado así. Esto, en el fondo lo que hace es decir que cuando los ortodoxos hablan de “comportamiento racional” ex simplemente un expediente para referirse a cualquier comportamiento en los que algunos resultados pueden ser representados por un modelo de comportamiento racional. Lo mismo podría imaginar uno a un pez o a una araña comportándose de forma que los economistas ortodoxos no reconocieran como propia.

La teoría de juegos es de paño parecido. Su punto supuestamente fuerte es que permite interacciones estratégicas entre agentes extremadamente racionales que velan por su propio interés. Como las interacciones potenciales exigen consideraciones estratégicas, las expectativas de los jugadores vienen a desempeñar un papel crucial (Hargreaves Heap y Varoufakis 1995, 24–25). Por desgracia, éstas están modeladas de forma completamente interesada: se asume que los jugadores sostienen una regresión infinita de creencias plenamente correctas en las que “Pepita piensa correctamente que Juanito piensa que Pepita piensa que Juanito piensa…”; o se asume por propia conveniencia que van a llegar a los mismos resultados por medio de “algún proceso de ajuste”. Con todo esto no hay que sorprenderse mucho si la teoría de juegos ha sido machacada por las pruebas empíricas casi desde el principio. (Hargreaves Heap y and Varoufakis 1995, 240). Pese a ello ha logrado ejercer gran influencia en las ciencias sociales, alardeando incluso de ser “un marco analítico en el que uno puede analizar racionalmente lo que es y lo que no es posible en una sociedad”. (Binmore 2007, 65). Uno de los rasgos más llamativos de la teoría de juegos es la forma en que confía en la utilidad cardinal. La teoría de juegos orbita sobre el supuesto de que cada jugador valora los resultados en términos de recompensas particulares: esas recompensas ora se miden en “útiles” (Hargreaves Heap y Varoufakis 1995, 5, 9, 66) ora en términos del dinero que cada persona valora de forma implícita de modo idéntico.

Ambos supuestos exigen la utilidad cardinal, y el segundo exige utilidad cardinal idéntica (Hargreaves Heap y Varoufakis 5, 9, 66). En el último caso la utilidad es susceptible incluso de compararse de individuo a individuo, lo que la hace equivalente a la versión de la utilidad cardinal que fue desdeñada por la doctrina económica ortodoxa a comienzos del siglo XX debido a que podía ligarse a argumentos favorables a una distribución equitativa del ingreso. (Strotz 1953, 384–385, 396; Hutchinson 1966, 283, 303; Black 1990, 778).
El trabajo de Becker (1981) sobre la familia es la más influyente aplicación general de la noción de racionalidad extrema. Su enfoque se apuntala en los supuestos fundacionales de la economía neoclásica: comportamiento maximizados de la utilidad, análisis de equilibro (aquí nada menos que del “mercado matrimonial”) y, al menos al principio, preferencias estables. (Pollak 2002, 1–8, 41). Al igual que en la teoría de juegos, el foco se pone en las interacciones de un limitado número de agentes, en este caso los miembros de la familia. Se trata a las familias, como “productores de niños y otras mercancías” (sic) y el matrimonio como “una asignación óptima en un mercado eficiente con participantes que maximizan la utilidad que posee la propiedad de que las personas que no entran en tal relación no podrían estar en mejor situación casándose” (sic). (Becker 1987, 282, 284).

La innovación de Becker es que por lo menos concede que al menos a un miembro “maximizador de utilidad” de la familia le importa un bledo el consumo del resto.
Emplea este marco analítico, por así llamarlo, para explicar la fertilidad, la monogamia y la poligamia, la (calidad) de los cuidados sanitarios y la educación de los hijos, la división sexual del trabajo, el matrimonio y el divorcio. . Pollak (2002, 28–35) observa que uno podría emplear la teoría de juegos ya que esta es igualmente coherente con los postulados neoclásicos. De este modo, uno puede analizar el comportamiento familiar de forma alternativa desde el punto de vista de los modelos de puja. Pero entonces surge una cuestión crucial: ¿si existen muchos enfoques posibles, por cual nos hemos de decantar? Pollak habla de “estética, manejo matemático […] parsimonia y pruebas empíricas” como posibles criterios. Ciertamente apunta a las pruebas empíricas como un importante fundamento contra los postulados auxiliares empleados en el modelo de la familia de Becker. Pero resulta llamativo que al propio Pollak nunca le dé por aludir a las pruebas empíricas contra los postulados fundamentales comunes a ambos enfoques.

Tal vez la más provocadora aplicación de la racionalidad extrema se da en los Marxistas Analíticos, cuya doctrina se presenta de forma clara y concisa en la obra de su filósofo más destacado Gerald Cohen (1978, xvii–xxiv). Se trata de una tentativa anti-dialéctica y anti-holística de fundamentar los conceptos marxistas en la metodología neoclásica. Cree que “la economía neoclásica es fundamentalmente sólida” y en consecuencia fía en la teoría de la elección racional, la teoría de juegos y las técnicas matemáticas neoclásicas vinculadas para derivar sus conclusiones. Siguiendo esa tradición, trate de “explicar los fenómenos molares aludiendo a sus constituyentes micro y a los micromecanismos que constituyen respectivamente las entidades y subyacen a los procesos que se dan en un nivel más bruto de resolución”. En esto es particularmente crítico con las técnicas económicas y sociales de Roemer y Elster. En el futuro, los Marxistas Analíticos “rechazarán el punto de vista de que […] las formaciones sociales y las clases sean descritas como entidades que obedecen leyes de comportamiento que no sean una función de sus individuos constituyentes”. Dicho de otra forma, en tanto que otra rama más de la economía ortodoxa, niega el concepto de propiedades emergentes. Como lo expresa el propio Cohen “los comportamientos de los individuos son siempre aquello donde reside la acción, en un análisis final”.

Todo lo anterior atañe a la tesis de que la racionalidad extrema es una herramienta útil para analizar el comportamiento real. Pero la racionalidad extrema también se ha defendido como una regla de comportamiento. La elección racional como fundamento ideal de la acción ya se haya en Descartes, Spinoza, Leibniz, Bentham, y Mill, incluso si todos esos grandes pensadores admiten que la gente no se comporta así en general. Este aspecto normativo resulta fundamental en la economía del bienestar y en la teoría de la elección social. En filosofía, ha sido empleado para definir un patrón de “cómo deberían comportarse los individuos” (razón teórica) con la que las acciones racionales (razón práctica) deben ir en consonancia. (Chai 2005, 2–4). Se reconoce por lo general que tal concepción exige un agente que no existe en la realidad. (Chai 2005, 4). Se admite además que puede dar lugar a “consecuencias perversas” para el individuo o el grupo, como en el célebre Dilema del Prisionero. En economía, este rancio abolengo se remonta de Walras a Arrow-Debreu y Lucas. Lo que el propio Walras pretendía sin ocultarlo era representar una economía “ideal” o “perfecta” y ese era ciertamente el fin del modelo de equilibrio general Arrow-Debreu. Grabner (2002, 8) cita a Lucas (1980, 696 697) cuando dice que una “teoría” no es una colección de asertos sobre el comportamiento de la economía real, sino más bien un conjunto explícito de instrucciones para construir un sistema análogo o paralelo, una economía mecánica y de imitación”. Desde este punto de vista, si las representaciones idealizadas y el mundo real son diferentes “tanto peor para el mundo real”. (Grabner 2002, 6).

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Mié Dic 28, 2016 3:42 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Pero después surge la pregunta. ¿Y qué es lo que hace que esos enfoques sean un ideal, para empezar? Tampoco es muy difícil argumentar que la capacidad humana para razonar es bastante más compleja que la racionalidad, extrema, ya que la verdadera racionalidad siempre se da en el seno de un contexto social a cuyos valores está subordinada. (Hayek 1969, 87–95). El modelo de racionalidad extrema ensalza a un tipo que es un “retrasado mental social” (Sen 1977, 336). Resulta difícil que nos hagan tragar con esta entelequia salvo por una cosa: aporta el fundamento para sostener que el mercado es la institución económica ideal y el capitalismo su manifestación social ideal. Este es su fundamento racional inmanente, y no otro.

Un ideal normativo alternativo es que es deseable enseñar a la gente a comportarse de forma egoísta porque eso haría que los mercados funcionaran mejor, y los mercados son deseables a su vez porque son superiores a otras formas de división del trabajo. (Hayek 1969, 96–104). En la actualidad éste es el argumento dominante en la economía de desarrollo y el fundamento certificado de los esfuerzos de la OMC, del Banco Mundial y de otras agencias internacionales parecidas, para crear mercados e instituciones “favorables al mercado” en el mundo en desarrollo. (Shaikh 2007). “La terapia de choque”, no es sino la aplicación más extremistas de esta doctrina. Pero una vez que se concede que la racionalidad extrema no es ni verdad ni algo deseable, el carácter óptimo del capitalismo ya no se puede defender al menos a nivel teórico.
Lo que les queda es recalcar la innegable potencia histórica del capitalismo como fuente de crecimiento y de elevación del nivel de vida de muchas personas en el marco de sus fronteras eficaces. Pero uno no puede dejar de lado su igualmente innegable historia de violencia, desigualdad, y constante intervención estatal. (Chang 2002a; Harvey 2005).
El último clavo ardiendo de los defensores del procedimiento operativo convencional es la tesis de que si no se asume la racionalidad extrema, “la teoría económica degeneraría en un batiburrillo de hipótesis ad hoc […] que carecería de cohesión global y falsabilidad científica”. (Conlisk 1996, 685). La tesitura que estas palabras reflejan es de nota, puesto que igual podría decirse que la doctrina de la racionalidad extrema está ella misma hasta los topes de supuestos ad hoc que ya han sido falsados científicamente. Sin embargo, bien se ve la “ansiedad” que hay detrás de este cri de coeur: ¿Qué pasa en realidad si procedemos partiendo del comportamiento real? Volveré a esta cuestión en la última sección del capítulo.

2. Representar el comportamiento agregado.

El comportamiento agregado es el fundamento de la economía. Bajo su dominio, la economía neoclásica radica en dos tesis fundamentales: (1) que el comportamiento individual puede ser modelado de forma útil suponiendo racionalidad extrema y (2) que los resultados conjuntos pueden tratarse como el comportamiento de un agente extremadamente racional único “representativo”. Ya nos hemos ocupado de la primera proposición. En cuanto a la segunda es falsa sin más. No se puede caracterizar el comportamiento de un conjunto basándose en el de cualquiera de sus elementos constitutivos porque el todo siempre es más que la suma de sus partes, o, como está de moda decir ahora, los conjuntos poseen propiedades emergentes. De forma más precisa, diríamos que la emergencia es un fenómeno, “en el cual el comportamiento conjunto bien formulado surge del comportamiento individual y localizado”, y que por lo general resulta insensible a las variaciones de los comportamientos individuales. (Miller and Page 2007, 46). La agregación es decididamente transformadora.

La primera implicación de la emergencia es que el agente medio, que no es sino otro nombre que dar al conjunto, será por lo general muy distinto del agente representativo. La clave es la presencia de estructuras que dan forma (es decir, gradientes de refuerzo positivos ni negativos) que transforman los abigarrados comportamientos individuales en patrones conjuntos estables. Un ejemplo bien conocido es la Ley de los Gases Ideales, que dice que el producto de la presión (P) y el volumen (V) de un gas ideal, es alguna constante (r) multiplicada por el producto de la cantidad de gas (n) y su temperatura (T).
Las primeras formas de esta ley fueron derivadas originalmente como poderosas hipótesis macroscópicas por Boyle (1662), Charles (1787), y Gay-Lussac (1802). No obstante con el auge de la idea de que el gas no era sino una masa de partículas en constante movimiento, se hizo trascendental conciliar la nueva perspectiva microscópica con las leyes macroscópicas antes derivadas. Los teóricos representaban el gas como una miríada de partículas anárquicas que viajaban en el seno de un contenedor (la estructura que las daba forma) y que colisionaban las unas con las otras y con las paredes del contenedor (gradientes de refuerzo negativo.

Las trayectorias individuales resultantes son demasiado variadas, y demasiado complejas, como para ser expresadas de forma analítica. Sin embargo a nivel estadístico podemos afirmar que a lo largo de un intervalo dado de tiempo, grosso modo un número de partículas aproximadamente igual golpearán ámbitos macroscópicos equivalentes en las paredes de los contenedores. Estas colisiones con las paredes generan la presión ejercida por el gas. En cualquier contenedor dado, cuanto mayor sea el volumen del gas, mayor será el número de partículas, y por consiguiente mayor el número de colisiones dentro de un ámbito dado de las paredes. De modo análogo, cuanto mayor sea la temperatura, más rápido será el movimiento de las partículas, y por lo tanto más colisiones se producirán con las paredes. En cada uno de los casos es mayor la presión ejercida por el gas. Y así, con ayuda de técnicas estadísticas apropiadas fue posible llegar una vez más a una ley macroscópica, esta vez como una relación que emerge a partir de la interacción de partículas individuales heterogéneas con la estructura modeladora de las paredes del contenedor. La Ley de los Gases conjunta se manifiesta ahora como una propiedad “emergente” del propio conjunto modelado (es decir contenido) y no puede reducirse, o deducirse, de una única partícula “representativa”.

Pues igual pasa con los procesos económicos. Considérese en primer lugar la teoría del consumidor. La estructura modeladora es la restricción presupuestaria definida por el nivel de los ingresos de un individuo. En el caso más simple, se supone que todos los individuos son extremadamente racionales y exactamente iguales en cuanto a sus estructuras de preferencias, de modo que existe un agente representativo claramente definido. Kirman y Koch, (1986) han demostrado que las divergencias en la distribución de la renta son no obstante suficientes para dar lugares a propiedades emergentes en el conjunto, de modo que incluyo en ese caso sencillo el agente medio será distinto del agente representativo (Kirman 1992, 128). Hildebrand y Kneip (2004, 2–3, 6–7,20, 26) han analizado el comportamiento de una población conjunta de personas maximizadoras de utilidad inter-temporal heterogéneas, cada una de las cuales maximiza alguna función objetiva sometida posiblemente a incertidumbre. El problema de maximización conduce a una relación entre variables generales, parámetros de preferencias de los individuos y el consumo de cada individuo. El consumo conjunto per cápita depende entonces de la distribución conjunta de las variables explicativas que se dan en la población, lo que hace de esta distribución conjunta una variable explicativa legítima a nivel agregado.

Encuentran que incluso cuando esta distribución conjunta es invariante desde el punto de vista temporal, la forma de una función de consumo agregado es por lo general completamente diferente de sus funciones individuales. Forni y Lippi (1997, iv–vii) estudian también modelos neoclásicos fundados en la maximización inter-temporal de agentes heterogéneos, esta vez bajo expectativas racionales. Se suponen funciones cuadráticas en el paso de optimización de forma que las soluciones son ecuaciones estocásticas lineales. Incluso en ese caso, la agregación genera nuevas propiedades: rasgos microeconómicos como la co-integración entre variables, o la causalidad de Granger, no se dan a nivel conjunto; los parámetros del modelo macroeconómico no poseen una relación sencilla con las de los individuos; e identificar demasiadas restricciones a nivel de la teoría macroeconómica no es aplicable a los parámetros macro. Kirman (1992, 122–124) señala que incluso sí los individuos heterogéneos poseen funciones de utilidad homotéticas, el Axioma Débil de la Preferencia Revelada (WARP) no se da en el conjunto de modo que la colectividad puede preferir x a y en una situación pero y a x en otra. . Kirman (1992, 124) llega a la conclusión de que: “es completamente ilegítimo […] inferior las preferencias de la sociedad a partir de las de los agentes representativos, y emplear estas últimas para decantarse por diversas políticas públicas”.

La teoría de la producción se encuentra con las mismas dificultades cuando pasa de las industrias individuales a la función de producción agregada. Una vez que nos enfrentamos a un mundo de bienes heterogéneos, tenemos que encontrar algún modo de construir medidas conjuntas de producción y capital. Robinson (1953–54) argumentó que no era posible generar una medición del capital conjunto que fuera coherente con una función de producción agregada. Una función de producción agregada (APF) representa la serie óptima de coeficientes de producción que se conrresponden con cualquier para dado de tasa entre salario real y tasa de ganancia (precio de los factores) Sraffa (1960, 38, 81–87) demostró que en un mundo con productos heterogéneos y múltiples métodos potenciales de producción (planos) en cada industrial, la razón capital trabajo correspondiente con la mejor técnica puede ser inferior en una tasa de ganancia inferior. Esto entraría en contradicción directa con cualquier función de producción agregada neoclásica, ya que esta exige que las proporciones entre capital y trabajo mayores se vinculen con tasas de ganancia menores.

En respuesta al desafío de Robinson, Samuelson (1962) trató de demostrar cómo la especie de manual de Sraffa puede reconciliarse con una función de producción neoclásica que se comporte como es debido. Por desgracia, su función de producción subrogada resultó depender fundamentalmente del supuesto de que todas las industrias poseen la misma relación entre capital y trabajo. Pasinetti (1969) y Garegnani (1970) demostraron de forma concluyente que la parábola de una función de producción agregada era insostenible en condiciones más generales. Ciertamente, Garegnani (1970, 421) demostró que el único caso en el que se sostiene la función de producción subrogada era cuando existían proporciones equivalentes de capital y trabajo en cada industria. Se trata de una burla histórica deliciosa desde el punto de vista intelectual ya que implica que los precios competitivos de Samuelson deben corresponderse con la teoría del valor trabajo simple. (Shaikh 1973, 11–14, 66–83).

En el bando neoclásico, Franklin Fisher ha analizado concienzudamente el problema de pasar de una función de producción a nivel microeconómico, supuesta a nivel de empresa, a una función de producción agregada. Su conclusión es que incluso en el supuesto sencillo de retornos constantes a escala a nivel de la empresa “las condiciones para la agregación son tan rigurosas como para hacer que la existencia de funciones de producción agregada sea un […] acontecimiento que no existe”. Como observa, esto invalida los procedimientos convencionales para la “concreción y evaluación de la curva de demanda agregada de trabajo”, para la “medición de la productividad” que a su vez es equivalente a la “mala interpretación del residuo de Solow” y para “el empleo de funciones de producción agregadas para validar la teoría neoclásica de la distribución”. (Fisher 2005, 490).

La literatura APF también se ha encontrado repetidas veces con el problema de las propiedades emergentes a nivel conjunto. Houthakker (1955–56) demostró que una distribución particular de tecnologías sencillas de coeficiente fijo a nivel macroeconómico puede imitar una función de producción agregada Cobb-Douglas incluso si la presencia de coeficientes fijos a nivel microeconómico descarta cualquier idea de producto marginal y sus reglas distributivas asociadas. Fisher (1971) simuló el comportamiento conjunto de los sistemas en los que se asume que N empresas tienen una función de producción Cobb-Douglas a nivel macroeconómico. Encontró que la relación agregada entre producto, capital y trabajo no se parece por lo general a una función de producción Cobb-Douglas salvo cuando la simulación a priori se limita de modo que la fracción de trabajo agregado permanezca constante en el tiempo. Shaikh (1973, ch. 3) demostró que una fracción estable de trabajo socialmente determinada era suficiente para explicar los resultados aparentemente Buenos de las FPA Cobb-Douglas, considerando que las ganancias y salarios agregados sumen el valor añadido agregado.

Shaikh (1987b) demostró que una economía rigurosamente no neoclásica caracterizada por una técnica sencilla dominante lineal (que implica proporciones de capital trabajo equivalentes, y por lo tanto que los precios relativos se correspondan con la teoría del trabajo simple) una fracción constante de mano de obra, y el cambio técnico neutra en el sentido de Harrod sería igual que una función de producción agregada Cobb-Douglas de buenos resultados que atraviese por un cambio técnico neutral. Esto es así incluso si la existencia de una técnica dominante implica que los productos marginales del capital y el trabajo no pueda definirse siquiera debido a que el producto por trabajador y el capital no varía cuando cambia el par de la tasa ganancia salario. Al igual que en el experimento de Fisher, una pseudo-función de producción agregada se da debido a la consistencia de la fracción salarial y al hecho de que los datos se “modelan” a causa de una identidad contable, donde Y, L, K, w, y r representan el valor añadido agregado, la mano de obra, el capital, la tasa de salarios y la tasa de ganancia, respectivamente. Shaikh (2005) incorpora un procedimiento de “encaje perfecto” que siempre hace posible transformar una función de producción encajada que no funciona bien en otra que parece funcionar casi a la perfección, incluso cuando tal procedimiento lleva a un completo equívoco sobre la forma verdadera de las relaciones de producción subyacente y las variedades de cambio técnico.

Felipe, McCombie, y varios autores que han trabajado conjuntamente han mostrado reiteradas veces que los cálculos multifactoriales de la productividad del cambio técnico son simplemente cálculos de la media ponderada de las tasas de cambio de los salarios reales y las tasas de ganancia (McCombie y Dixon 1991; Felipe y Adams 2001; Felipe y Fisher 2003; Felipe y McCombie 2003).

Por todo lo dicho la hipótesis del agente representativo sólo se sostiene en supuestos muy particulares. En el caso de la teoría del consumidor, basta con que todos los individuos posean exactamente las mismas funciones de utilidad y tengan los mismos ingresos. En el supuesto de la teoría de producción, basta con que todas las empresas tengan la misma proporción capital trabajo y las mismas tasas de ganancia y salariales. Sin embargo se trata de casos triviales, porque debido a su propia naturaleza ficticia aquí sólo hay un único agente en cada ámbito. De modo más general, con el fin de obtener los resultados neoclásicos deseados, es necesario asegurar que “las preferencias operativa de todos los individuos y los planes optimizadores de todas las empresas […] sean idénticos en el margen”, de modo que sólo exista en efecto un único actor en cada sector. (Martel 1996, 128). En ausencia de esos supuestos tan extremadamente restrictivos (e interesados), la hipótesis generalmente se derrumba. (Kirman 1992, 117–128;Martel 1996, 128–136; Grabner 2002, 17–20).

No toma por sorpresa que la idea de agente representativo haya sido recibida con cierto desdén por parte de algunos destacados críticos. Martel (1996, 128) afirma que los supuestos exigidos para derivar un agente representativos son “palmariamente falsos […] y tanto es así que cualquier parecido entre las predicciones de los modelos de agentes representativos y los conjuntos reales es pura coincidencia”. Hahn (2003, 227) llega a hablar de “el disparate del agente representativo que surge en la macroeconomía”. Kirman (1992, 125) dice que el supuesto de un agente representativo “no es nada cándido; es la entelequia de la que se sirven los macro-economistas para justificar el análisis de equilibrio y aportar micro-fundamentos falsos y que “merece que sea enterrada con todos los honores […] como un enfoque el análisis económico que no sólo es crudo, sino fundamentalmente equivocado”. (119). Fischer dice a su vez (2005, 489) que la función de producción conjunta es un “constructo” imaginario, “un cuento de hadas omnipresente, pero que no convence a nadie”.

3. Relaciones agregadas, fundamentos micro, y la cuestión del rigor.

Los economistas ortodoxos y también los heterodoxos suelen decir que las relaciones conjuntas adolecen de “falta de rigor” si no se derivan de ciertos micro-fundamentos. (Weintraub 1957; Phelps 1969, 147; Cohen 1978, xxiii–xxiv; Little 1998, 6–7). Como tesis metodológica, existent tres problemas fundamentales.

Consideremos las leyes físicas. La Ley de los Gases se presentó al comienzo como un principio empírico macroscópico con gran vigor en el siglo XVII, pero no se derivó de fundamentos atómicos hasta el siglo XIX. ¿Acaso la Ley de los Gases sólo comenzó a ser “rigurosa” cuando se derivó de la termodinámica estadística? El nobel de física Robert Laughlin observa que existen muchas otras leyes físicas, como las de la hidrodinámica, la cristalización o el magnetismo, que son bien conocidas y se emplean generalizadamente aunque nunca se hayan derivado de fundamentos microscópicos (Laughlin 2005, 35–40). ¿Las declaramos no rigurosas? ¿Qué hay de la Teoría de la Relatividad de Einstein? Tanto la Mecánica Cuántica como la Relatividad General se formularon a comienzos del siglo XX, y ambas “han sido confirmadas experimentalmente de forma fantástica”. La Relatividad General es “completamente clásica, o no cuántica”.

Como ambos enfoques obran a escalas diferentes, hasta ahora ningún experimento ha logrado explorar el ámbito en el que intersectan. Se han dado muchas tentativas de unificación: la teoría twistor, la geometría no conmutativa, la súper-gravedad, y más recientemente la teoría de cuerdas y la teoría M. (Smolin 2004, 67–68). Después de haber pasado más de un siglo desde que fueron concebidas aún no disponemos de un enfoque teórico que haya conseguido unificarla. ¿Vamos a decir que la Relatividad General no es rigurosa? ¿O de forma más razonable rechazamos la tesis de que sólo los microfundamentos pueden conferir rigor a una ley?

En segundo lugar, como el problema que tenemos entre manos implica una carencia de ligazón explícita entre patrones micro y macro, surge otra dificultad adicional. Por ejemplo, si aún no se ha logrado conciliar la Mecánica Cuántica y la Relatividad General de modo explícita, ¿por qué no decir que es la mecánica cuántica la que no es rigurosa, ya que lleva un siglo sin que se pueda derivar de ella las leyes más básicas de nuestro universo? El propio Einstein pensaba que la mecánica cuántica era inferior a la teoría de la relatividad ya que “adolecía de fundamentos conceptuales convincentes” y trató de derivar aquella de ésta.

Otros han argumentado durante mucho tiempo que “la mecánica cuántica se deriva de fundamentos clásicos y no al revés”. Desde este punto de vista la aleatoriedad supuestamente inherente en la mecánica cuántica puede verse como el comportamiento caótico de partículas sometidas a leyes clásicas exclusivamente deterministas (ver el análisis sobre el caos en la sección V.2) Este enfoque ha sido resucitado recientemente por físicos como el nobel Gerard’t Hooft, Massimo Blasone, y otros (Musser 2004, 89–90). En la ciencia económica, implicaría que lo que necesitamos en realidad son macro-fundamentos adecuados para la microeconomía, y no al revés. (Hahn 2003).

El tercer problema con el argumento del “rigor” neoclásico es aún más grave: es perfectamente posible derivar patrones macro respaldados empíricamente partiendo de micro-fundamentos que se sabe que son falsos. Considérese una vez más la Ley de Gases. Hoy en día decimos que la Ley de Gases se deriva de la teoría cinética como resultado de las interacciones complejas entre los átomos que obedecen las leyes de Newton cuando chocan unos con otros como si se tratara de bolas de billar. (Laughlin 2005, 30–31). El problema con esta explicación es que “los átomos no son esferas como las imaginaba Newton […] sino entidades “etéreas” de la mecánica cuántica que carece del más fundamental atributo que se había venido atribuyendo a un objeto: una posición identificable (42). Así pues, la derivación tradicional de la Ley de los Gases Ideales comienza con “ecuaciones equivocadas y aún llega a la respuesta correcta” (97)

Laughlin argumenta que esto puede suceder tan sólo porque la Ley de Gases es una propiedad emergente que es “vigorosamente insensible a los detalles”. (97): las interacciones de entidades parecidas a una onda en un gas encerrado dan lugar a una nueva relación estable que no depende de los detalles de la interacción. Esto no es lo mismo que decir que los detalles son importantes a nivel microscópico. Sólo dice que no son detalles indispensables a nivel macroscópico. Como se observó al comienzo de la sección II.2, una propiedad general de los fenómenos emergentes es que son insensibles a las modificaciones de los comportamientos individuales.

Los economistas que investigan la cuestión de unir el comportamiento micro con los patrones conjuntos han llegado también a entender que el proceso de agregación es transformador. Martel (1996, 134) cita a Leijonhufvud (1968) en el sentido de que “es en gran medida aquello que estaba descubriendo Keynes en la Teoría General”. Alchian (1950, 211, 221) apunta a la irrelevancia del supuesto de racionalidad individual para derivar patrones económicos a nivel macro. Enlaza los patrones macro con las exigencias de ganancia positiva, que obra como un filtro de supervivencia para las empresas. En este aspecto el azar, las circunstancias concretas, el comportamiento imitador, y los procesos de prueba y error pueden tener más importancia a la hora de determinar la ganancia positiva que el comportamiento extremadamente racional al nivel de la empresa individual. Aitchison y Brown (1957, xvii, 101–102, 116–140) analizan una diversidad de modos en los que el comportamiento no extremadamente racional puede dar lugar a una distribución logarítmica normal en ciertas variables como en el tamaño de la distribución de los ingresos personales, la concentración de las empresas, los réditos del trabajo y los gastos de consumo en el seno del hogar.

Becker (1962), en un trabajo más temprano que después acabó abandonando, construye sobre el trabajo pionero de Alchian demostrando que las curvas de demanda mercantiles de pendiente descendientes no sólo pueden derivarse del supuesto de racionalidad extrema, sino por lo menos tan bien del comportamiento impulsivo o de la inercia. El factor clave en cada caso es la estructura que da forma a la restricción presupuestaria definida por el nivel individual de ingresos promedio. El supuesto de racionalidad extrema no es, en definitiva, necesario. Hildebrand (1994) propone que dejemos “las preferencias y opciones a psiquiatras y psicólogos” y nos centremos en fundar condiciones estadísticas bajo las cuales se puedan derivar patrones económicos fundamentales como curvas de demanda de pendiente descendiente (Dosi, Fagiolo, Aversi, Meacci, y Olivetti 1999, 141). Hildebrand (1994) y Trockel (1984) aportaron los estudios pioneros en este aspecto.

En todos estos casos, las estructuras modeladoras económicas generan límites y gradientes que canalizan los resultados conjuntos: el criterio de supervivencia de ganancia positiva en el caso de la empresa, los rasgos económicos individuales en el caso de la distribución de la renta, y la restricción presupuestaria en el supuesto de la elección individual del consumidor. Cada uno de ellos da lugar a patrones conjuntos estables que no dependen de los detalles de los procesos subyacentes. Y precisamente porque muchas sendas pueden llevar a cualquier resultado concreto, no podemos contentarnos con analizar un modelo que es válido sencillamente porque rinde algún patrón empírico observado.

Pueden extraerse conclusiones de otras facetas del modelo que son falsables empíricamente, de las que también debe ser responsable el propio modelo. Por implicación, las conclusiones con respecto a las políticas públicas que dependen, al menos en parte, de implicaciones sin respaldo empírico, debemos tomarlas, cum grano salis.

III. FORMAR ESTRUCTURAS, GRADIENTES ECONÓMICOS, Y PROPIEDADES ECONÓMICAS EMERGENTES.

La heterogeneidad de los comportamientos individuales da lugar a propiedades emergentes conjuntas, aniquilando y anonadando así el concepto de agente representativo. Pero si queremos saber qué propiedades conjuntas concretas se dan en una situación dada, tenemos que conocer antes qué estructuras configuradoras obran y por qué dan lugar a patrones agregados estable. Demostraremos a renglón seguido que los principales patrones empíricos del comportamiento del consumidor pueden ser derivados de dos estructuras configuradoras clave: un nivel de ingresos dado, que limita las opciones posibles; y un nivel mínimo de consumo de bienes básicos que introduce una no linealidad crucial. Los patrones en cuestión son curvas de demanda de pendiente negativa, elasticidades de renta de menos de uno para bienes básicos y más de uno para bienes de lujo (Ley de Engel) y funciones de consumo conjuntas que son lineales en ingreso real a corto plazo e incluyen el efecto renta a largo plazo (funciones de consumo de corte keynesiano). Las derivaciones analíticas serán complementadas con la simulación de cuatro modelos radicalmente distintos de comportamiento individual: (1) Un modelo neoclásico convencional “de manual” de consumidores idénticos extremadamente racionales donde se da un agente representativo; (2) un modelo de consumidores extremadamente racionales y heterogéneos en el que no se da un agente representativo; (3) Un modelo con consumidores diversos donde cada uno de ellos actúa de forma caprichosa decantándose aleatoriamente entre las opciones que le permitan sus ingresos (se trata del consumidor irracional de Becker); y (4) un modelo inspirado en Dosi et al. (1999) en el que los consumidores aprenden de sus vecinos (el prójimo) y desarrollan nuevas preferencias (cambian) a lo largo del tiempo.

Pese a las apuntadas diferencias, todos esos modelos resultan en los mismos patrones agregados. La cuestión esencial es que se pueden dar los mismos patrones macroscópicos partiendo de una índole muy diversa de comportamientos individuales. Tal modo de proceder se remonta a un enfoque más temprano, comenzado, aunque después abandonado, de Becker (1962). Se adopta un enfoque similar en la Teoría de los Salarios Reales que aparece en el Capítulo 14, sección III.
1. Marco analítico necesario para una microeconomía rigurosa.

Supóngase que el ingreso (y) se divide entre dos (exhaustivos) empleos de fondos en los artículos x_1 y x_2. Denotemos con x_1 un artículo básico, lo que significa que exige cierto mínimo positivo x_1min. Tenemos pues que el alcance factible de la restricción presupuestaria para cualquier individuo dado lo constituye el segmento entre x_1min y x_1max=y/p1 tal y como aparece en la gráfica 3.1. Los límites del correspondiente consumo del artículo de lujo se elevan cuando el ingreso discrecional (y – p1x1min) se gasta completamente en lujos.

y=p_1 x_1 + p_2 x_2 (3.1)
x_1max=y/p1 (3.2)
x_2max=(y/P2)-(P1/P2) x_1min (3.3)


Bien de Lujo

Bien Necesario.
Gráfica 3.1. Elección con presupuesto limitado.
Los individuos por lo general son diferentes los unos de los otros en muchos de sus atributos, no sólo por lo que respecta a sus ingresos. Supongamos que los individuos son por lo general bastante abigarrados en sus inclinaciones, complejos en sus motivaciones, a veces caprichosos en sus opciones y susceptibles de una gran variedad de influencias sociales. Una serie de individuos con ingresos promedios Y optarán por alguna canasta 〖(x〗_1 x_()2) de bienes dentro del alcance que se puede permitir, como se ve en el punto A en la gráfica 3.1. Como el alcance factible del bien básico se define mediante los límites (x_1min, x_(1max⁡)) es conveniente pensar que el consumidor promedio se decanta por una proporción concreta (c) de tal alcance factible. Esto hace que nuestros resultados sean compatibles con un amplio elenco de modelos de comportamiento individual del consumidor (ver sección III.5) Posteriormente resultará de utilidad observar que c también representa la propensión al consumo discrecional media, que es la razón del consumo discrecional del bien necesario (p_1 x_1 - p_1 x_1min) y el ingreso discrecional (y - p_1 x_1min). En la gráfica 3.1 esto supone la proporción entre el segmento de la línea a con el segmento de la línea b.

Supondremos que tanto x_1min como c son independientes de los precios. Tenemos pues que para cada c podemos derivar la función correspondiente de demanda per cápita del bien básico (en las ecuaciones (3.2) and (3.4)) y del bien de lujo (de las ecuaciones (3.1), (3.3), y (3.5)). Las siguientes son nuestras ecuaciones fundamentales de la elección del consumidor.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Mié Dic 28, 2016 3:43 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Rezz, ¿hay algún modo de escribir aquí la notación matemática sin tener que recurrir al pantallazo? Igual que se puede en Word.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Mié Dic 28, 2016 5:39 pm 
Desconectado
Contra viento y marea
Avatar de Usuario

Registrado: Sab Jul 08, 2006 4:09 pm
Mensajes: 36994
Mientras Goldstein siga de administrador, imposible.

_________________


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Mié Dic 28, 2016 6:35 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Rezz escribió:
Mientras Goldstein siga de administrador, imposible.


Por el bien de la Ciencia Económica se lo pido.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Dic 29, 2016 12:08 pm 
Desconectado
Contra viento y marea
Avatar de Usuario

Registrado: Sab Jul 08, 2006 4:09 pm
Mensajes: 36994
Hay quien dice por ahí que se puede instalar Latex, pero hacen falta superpoderes más allá de un humilde administrador y servidor del foro


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Dic 29, 2016 4:48 pm 
Desconectado
Camarlengo
Avatar de Usuario

Registrado: Vie Dic 28, 2012 10:37 pm
Mensajes: 23903
Ubicación: Por ahí, de tapaculos
Queremos Latex.

_________________
Puta España. Referéndum o muerte.


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Dic 29, 2016 6:41 pm 
Desconectado
Contra viento y marea
Avatar de Usuario

Registrado: Sab Jul 08, 2006 4:09 pm
Mensajes: 36994
polin escribió:
Queremos Latex.

Pues hay que pedírselo al Notas que es el único que puede bregar con este tema:
Imagen


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Dom Ene 08, 2017 3:25 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
Ecuaciones Fundamentales del Comportamiento del Consumidor.

Imagen


2. Curvas de demanda de pendiente decreciente.

Parece claro a partir de las ecuaciones (3.5) y (3.6) que para todo bien la cantidad demandada responde de forma negativa a un incremento en su precio para cualquier renta dada. Esta respuesta negativa es la piedra angular de la microeconomía. (Becker 1962, 4).

Pese a ello veremos que no exige un modelo concreto de comportamiento del consumidor. Tal y como están, las demandas per cápita (x1, x2) , de las ecuaciones precedentes definen un punto único en la línea presupuestaria promedio correspondiente con un ingreso per cápita determinado (y) como en la gráfica 3.1 anteriormente. Un incremento en el precio de cualquier bien, digamos p1 haría descender la captura correspondiente y girando la línea presupuestaria hacia el interior como se muestra en la gráfica 3.2. (Becker 1962, 4).

De tal modo, se reduce el alcance factible. Pero con la proporción media c como dada, la nueva x1 debe dividir su alcance factible inferior en las mismas fracciones que antes. Por lo tanto x1 debe descender. La curva de demanda se muestra por tanto inclinada negativamente.

La ecuación (3.6) nos dice que la demanda de x2 descenderá de forma parecida a causa de cualquier incremento en p2. También se da un efecto de elasticidad cruzada de p1 sobre x2 a partir de la ecuación (3.6) pero no una de x2 en x1 a partir de la ecuación (3.5) y esa asimetría surge de la existencia de un mínimo físico para x1.

Bien de lujo

Imagen

Gráfica 3.2. Subida en el precio del bien básico.

De modo más formal, podemos derivar expresiones algebraicas para elasticidades de demanda directas y de precios cruzados a partir de las ecuaciones (3.5) y (3.6)

Imagen

3. Elasticidad-renta y la Ley de Engel.

Uno de los más célebres descubrimientos de la microeconomía es que la gente compra proporcionalmente menos bienes básicos, y por consiguiente proporcionalmente una mayor cantidad de otros bienes (de lujo) cuando aumenta su renta. (Allen y Bowley 1935, 7; Houthakker 1987, 143–144). Es decir, la elasticidad de renta de los productos básicos es menor que uno, mientras que la de los bienes de lujo es mayor que uno. Se conoce a lo anterior como la Ley de Engel de la Demanda del Consumidor. Houthakker (1992, 224) observa que esta ley parece tener algo de misterio. Sin embargo se sigue de forma directa de nuestras ecuaciones fundamentales de la elección del consumidor. El supuesto más sencillo se da cuando la proporción media entre c y x1min permanecen contantes en las clases de ingreso. En ese caso tenemos que para precios dados p1, p2, las ecuaciones (3.5) y (3.6) señalan que las cantidades demandadas varían de forma positiva en función del ingreso. Además como la primera ecuación tiene un punto de intercepción positivo y la segunda un punto negativo, la elasticidad-renta de la demanda para el bien básico x_1 es menor que uno, y la del bien de lujo x2 mayor que uno. De un modo más formal, podemos derivar las porciones de gato y las elasticidades de renta de forma directa a partir de las ecuaciones (3.5) y (3.6). Es claro que la fracción del gasto en los bienes más básicos baja cuando sube la renta, mientras que suben los gastos en lujos. En la misma línea, la elasticidad renta de los bienes básicos es menos que uno mientras que la de los bienes de lujo es mayor que uno. Obsérvese que la elasticidad renta de x1 es de igual tamaño, pero opuesta en signo, a la su elasticidad de demanda para cualquier renta real dada (y/p_1), como podemos ver comparando las ecuaciones (3.7) y (3.13)

Imagen


Incluso si el caso sencillo analizado anteriormente basta para derivar la Ley de Engel, la relación resultante entre el ingreso y el gasto en un bien u otro (la curva de Engel) es lineal mientras que c y x_1min permanecen constantes en las clases determinadas por el ingreso.

Por ejemplo, la ecuación (3.11) se traduce en la función de gasto p_1 x_1 = (1-c) = p_1 x_1min+ cy, que posee la pendiente ((d(p_1 x_1))/dy)= c, de modo que la función de gasto es lineal en cuanto al ingreso. Sin embargo es muy razonable, que el nivel mínimo de bienes básicos, que es siempre socialmente contingente (Trigg 2004), aumente al tiempo que sube el ingreso real (y/p_1) pero no tan rápido como el ingreso, por lo que se reduce como fracción del mismo. En tal supuesto, la pendiente de la curva de Engel deviene ((d(p_1 x_1))/dy)= (1-c) ((d(p_1 x_1min))/dy) + c, que aún tiene una magnitud positiva pero declinante mientras se eleva el ingreso. En otras palabras, la curva de Engel de bienes básicos mostrará saturación.

Se obtiene idéntico resultado si c desciende con el ingreso que se gasta de forma discrecional. Para comprobar esto, reescribimos la ecuación (3.4) como ECUACION, que es una relación lineal entre el gasto discrecional en bienes básicos y la renta discrecional. Puesto que c es la pendiente de esta curva, cuando c desciende la curva se torna más plana. La propiedad de saturación se apodera de la relación entre el gasto total en bienes básicos y el ingreso total, los cuales sólo se diferencian de sus contrapartes discrecionales por un gasto común mínimo en bienes básicos.

Las Gráficas 3.3-3.5 exhiben los resultados del supuesto en el que (X) sube más despacio que la renta, las gráficas 3.6, 3.7 el supuesto en el que c baja con la renta, y las Gráficas 3.8 y 3.9 las trayectorias características de los datos reales.

Gráfica 3.3. Cambio en el gasto relativo al cambio en la renta, Supuesto I.
Gráfica 3.4. Fracción del gasto en bienes básicos, Supuesto I.
Gráfica 3.6. Propensión discrecional al Consumo, Supuesto II.
Gráfica 3.7. Curva de Engel de Bienes Básicos, Supuesto II.
Gráfica 3.8. Fracción basada en datos empíricos de la fracción del gasto en alimentación (presupuestos de trabajadores, Reino Unido, 1904)

Gráfica 3.9. Curva empírica de Engel para la alimentación (Presupuestos de la Clase Obrera, Reino Unido, 1904)

4. Funciones de Producción y de Consumo conjunto.


En el anterior análisis de forma implícita hemos tenido en cuenta dos bienes generales cuya adquisición agota cierto ingreso per cápita concreto. Si el ingreso en cuestión es el ingreso conjunto per cápita, los dos bienes tienen que supones el consumo y el ahorro conjunto (sumas netas a los activos financieros). Por razones obvias el consumo sería el del bien básico. La demanda promedio per cápita de cada bien estaría determinada por la proporción media macroeconómica C, que debería permanecer estable a lo largo del tiempo si las variaciones de las proporciones medias varían en el seno de las clases consideradas en función de la renta y si la distribución de la renta es estable.

Sean Y, C y S = la renta, el consumo y el ahorro respectivamente, el valor monetario de las sumas netas a los activos financieros. Podemos por tanto traducir directamente las ecuaciones per cápita (3.5) y (3.6) en el conjunto FORMULAKA multiplicando por el tamaño de la población SIGNO.

Resulta especialmente llamativo que las ecuaciones (3.16) y (3.17) se parecen a las funciones lineales keynesianas de manual de consumo y ahorro. En la medida en que SIGNO se tome como dado, se correspondería con las funciones a corto plazo con c y (1-c) siendo las propensiones marginales al ahorro y al consumo respectivamente. En un nivel más general, uno tiene que reconocer que el nivel mínimo de consumo conjunto socialmente definido SIGNO es posible que cambie a lo largo del tiempo. Pudiera estar vinculado con el nivel de riqueza de los hogares, que puede cambiar con el tiempo cuando se añaden los ahorros a la riqueza titularidad de los mismos. De este modo, la función de consumo conjunta a largo plazo pudiera incluir un efecto renta. Es probable que cSIGNO también cambie a lo largo del tiempo, en respuesta a cambios en el entorno social. LA cuestión importante aquí es que todos estos resultados son “vigorosamente insensibles” a modelos concretos de comportamiento individual: en realidad están dirigidos por estructuras configuradoras como la restricción presupuestaria y el nivel mínimo de consumo.
Aunque aquí no lo haremos, es posible ampliar el análisis precedente introduciendo en él la deuda. La deuda permite que un agente pueda evadir las restricciones inmediatas de renta. Los gastos totales pueden así desviarse de la renta, pero sólo en cierto grado ya que existen límites al endeudamiento que puede permitir un nivel dado de renta en condiciones institucionales dadas. La deuda en esencia transforma la restricción presupuestaria en un freno presupuestario.

5. Simulaciones: La insensibilidad de las relaciones conjuntas a los fundamentos microeconómicos.

Las derivaciones anteriores de las funciones conjuntas de consumo, las curvas de demanda, y las curvas de Engel exigen sólo tres supuestos: (1) que los individuos están sometidos a unas restricciones presupuestarias; (2) que existe un nivel mínimo de consumo de los bienes básicos; y (3) que cualquier población dada consigue una canasta de consumo medio estable (caracterizada por la propensión discrecional al consumo SIGNO c.

La finalidad de esta sección es demostrar que tales condiciones están perfectamente en consonancia con una amplia variedad de fundamentos microeconómicos. Aquí emplearemos cuatro modelos muy diferentes de relaciones microeconómicas. Pese a sus diferencias, todos los modelos dan lugar a la misma curva de demanda y de Engel precisamente porque los resultados conjuntos son vigorosamente insensibles a lo que afirmen el micro-fundamento. (Laughlin 2005, 97, 144–145).

El modelo convencional Neoclásico de Agentes Homogéneos es nuestro punto de partida. Cada consumidor maximiza una función de utilidad Cobb-Douglas (U) sometida a una restricción presupuestaria determinada por su renta, y cada consumidor se comporta exactamente de la misma forma repetitiva en cada periodo. Todos los consumidores poseen idénticas estructuras de preferencias, de modo que el consumidor promedio es también el agente representativo. Maximizar la función de utilidad sometida a la restricción presupuestaria hace surgir dos curvas de demanda que resultan familiares (Varian 1993, 63–64, 82–83, 93–94).
Con el fin de adaptar este modelo familiar para los que nos ocupa, tenemos que permitir un nivel mínimo del bien básico SIGNO. Una forma de “especificar un nivel mínimo de consumo en un problema de maximización de utilidad de un individuo […] es especificar un monto fijo de consumo […] de modo que la contribución del consumo a la utilidad es positiva sólo si el nivel de consumo es superior que un monto fijo. Esto es parecido a la especificación del coste fijo de un insumo en una función de producción. Comparada con la función de utilidad privada del nivel mínimo de consumo, esta especificación es equivalente a hacer que la curva de indiferencia se desplace hacia arriba. (Lio 1998, 108). Con tal ajuste, el sistema neoclásico se convierte en:

A partir de la definición propensión marginal al consumo c en la ecuación (3.4) obtenemos:

Es pues patente que las curvas de demanda derivadas de una función de utilidad Cobb-Douglas, como las que se muestran en las ecuaciones (3.24) y (3.25) no son sino ejemplos particulars de la elección del consumidor resumidas anteriormente en las ecuaciones (3.5) y (3.6). A efectos de simultación, fijamos todo c = 0,5, que es equivalente a suponer que α = β en las funciones de utilidad de consumidores idénticos. El modelo neoclásico de agentes heterogéneos viene después. Los consumidores son aun rigurosamente neoclásicos, pero ahora cada agente posee uns función distintiva de utilidad Cobb-Douglas a partir de la cual podemos derivar una propensión marginal distinta c.

Los valores individuales de c se escogen a partir de una distribución uniforme de probabilidad que va de 0 a 1, con una media teórica de 0,5 como para corresponderse con el supuesto anterior.

Tratándose de un supuesto neoclásico, se supone que cada agente se comportará exactamente de la misma manera en cada periodo. Incluso si cada agente es rigurosamente neoclásico, la heterogeneidad de sus preferencias implica que no existe agente representativo.

Sin embargo, por razones presentadas en el análisis general, todos los individuos poseerán funciones de demanda en la forma dada en las ecuaciones (3.5) y (3.6), y para cualquier distribución dada de renta existirán curvas medias de demanda de la misma forma basadas en la propensión media c.

En el modelo de agente caprichoso, que se corresponde con el modelo de Becker (1962, 4-6) del consumidor impulsivo, cada consumidor se decanta de forma aleatoria por una propensión discrecional c a partir de una distribución uniforme entre 0 y 1. Para cualquier individuo dado la combinación escogida de bienes varía de un periodo a otro. No obstante la media c es la misma a grandes rasgos a lo largo de los diferentes periodos, lo que hace que el modelo sea comparable con los dos modelos neoclásicos anteriores.

El modelo Imitación-Innovación, inspirado por el trabajo de Dosi et al (1999, sec. 4, 366–373), posee dos tipos de consumidores. (1) aquellos que adaptan sus preferencias a las de su entorno social (imitadores); y (2) aquellos que desarrollan nuevas preferencias (innovadores) A los agentes se les asigna en principio de forma aleatoria rentas y propensiones marginales. En cada ronda sucesiva, la mayoría de individuos (el 80% en esta ronda particular) se supone que adaptan sus propias propensiones marginales a las de los que conforman la media de su entorno, y los coeficientes reactivos de ajuste individual se escogen a partir de una distribución uniforme entre 0 y 1.

Se trata con ello de simular una tendencia general para formar normas sociales basadas en el grupo. Por otro lado los individuos integrantes del contingente restante (20%) son innovadores en este periodo concreto y se supone que cambian sus propensiones marginales de forma aleatoria. En cada ronda se escogen diferentes individuos como imitadores e innovadores. Debe observarse que las interacciones locales de pequeños subconjuntos de agentes en tales simulaciones pueden considerarse como alternativas a las teorizaciones de juegos de interacciones de pequeños conjuntos. Como señala Kirman (1992, 132) en la práctica real, “los individuos obran en muy pequeños subconjuntos de la economía y se relacionan con aquellos con los que tienen tratos. Puede muy bien suceder que a partir de esta actividad local pero estrechamente vinculada surja una suerte de auto-organización que aporte regularidad a nivel macroeconómico”. En cualquier caso, incluso si el modelo es decididamente no neoclásico, los resultados globales son exactamente equivalentes a los de los tres primeros modelos.

Todas las simulaciones se efectuaron en NetLogo, y los programas de los distintos modelos están disponibles si se solicita. A los efectos de comparar, todos los modelos poseen la misma renta fija total ($1,000,000), población (5,000), nivel mínimo de consumo necesario ($10) renta media per cápita ($200), y precios iniciales p1 = 1 y p2 = 2.

La distribución de renta se fija al principio como una distribución normal logarítmica con un ingreso mínimo dado ($50). Como de lo que con esto se trata es de demostrar que c es el parámetro crítico a la hora de generar relaciones conjuntas, se interpreta que todos los modelos poseen a grandes rasgos las mismas propensiones discrecionales medias (0,5) La curva de demanda para x1 se genera elevando su precio de 1 a 1.5 por medio de incrementos de 0.01, en tanto que para x2 se genera incrementando igualmente su precio de dos a 3. La renta nominal se mantiene constante en tanto que cada precio aumenta en última instancia en un 50%, lo que significa que la renta real (y/p1) desciende al cabo en el monto que se corresponde. A efectos de comparación, las simulaciones de la curva de Engel se llevan a cabo reduciendo el ingreso per cápita nominal en el mismo monto en el que el ingreso real disminuye mientras aumenta p1. Esto nos permite comparar directamente los valores numéricos de la elasticidad-renta en diversos modelos con sus propias elasticidades de demanda, al igual que con la teoría. Obsérvese que la elasticidad renta teórica de x1 es la misma que su elasticidad de demanda en cualquier ingreso real dado (ver ecuaciones 3.7 y 3.13)
Las gráficas 3.10 y 3.11 comparan las curvas de demanda teóricamente esperadas de los bienes básicos y de lujo con las curvas reales en los cuatro modelos de simulación. Con el fin de ahorrar espació, no se muestran las curvas de demanda cruzada y las curvas de Engel. Se enumeran todas las elasticidades reales en la tabla 3.1. Es evidente que los micro-fundamentos muy distintos de los diversos modelos no ejercen fundamentalmente efecto en los resultados conjuntos. Por ejemplo, en las Gráficas 3.10 y 3.11, las curvas de demanda de mercado del bien básico resultantes del modelo Neoclásico de Agente Homogéneo son idénticas a las curvas teóricas derivadas de las ecuaciones (3.5) y (3.6) ya que, en este modelo, todos los agentes poseen idénticas propensiones invariantes todas equivalentes a 0.5. En el Modelo Neoclásico de Agente Heterogéneo los agentes poseen diferentes propensiones extraídas a partir de una distribución aleatoria un una media teórica sopesada de c* = 0.5. La c real media calculada a nivel conjunto resulta equivalente a una media de ingresos ponderada de las propensiones individuales. Esto depende de la particular muestra de distribución de las c´s y de la muestra de distribución particular de ingresos generados en el primer paso de la ronda. Por consiguiente, la c media puede ser un poco diferente de c*. Pero como tanto la distribución de propensiones individuales e ingresos son fijos en el primer paso en cada ronda del modelo, la media c permanece constante a lo largo del tiempo. En el Modelo de Agente Caprichoso, la propensión media no es constante a lo largo del tiempo. Ello se debe a que cada ronda del modelo genera una nueva muestra aleatoria de propensiones individuales, de modo que incluso con una distribución inicial fija del ingreso, la propensión media varía de algún modo en cada paso. Este turno imparte a su vez un cierto grado de variación a las curvas de demanda en este modelo. La variabilidad alcanza su mayor punto en el Modelo de Agente Imitador-Innovador ya que las propensiones están cambiando constantemente: los imitadores adaptan sus propensiones a las normas sociales locales prevalecientes mientras que los innovadores adoptan nuevas propensiones. Sin embargo, todos los modelos generan en esencia las mismas curvas y elasticidades que predicen las ecuaciones teóricas fundamentales.

Figura 3.10 Bienes Básicos (x1) curva de demanda, cuatro micro-fundamentos distintos.

Figura 3.11 (x2) Curvas de demanda de bienes de lujo, cuatro micro-fundamentos distintos.

Tabla 3.1 elasticidades medias

Nota: Los ajustes iniciales y los valores de los parámetros.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Jue Ene 19, 2017 8:54 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
IV. LA METODOLOGÍA DEL ANÁLISIS ECONÓMICO.

La agencia individual subyace a los patrones macroeconómicos mercantiles, industriales, nacionales y regionales. Pero conjuntos más agregados poseen propiedades que no tienen los agentes individuales, lo que implica que no podemos hacer un modelo del todo “como si” fuera meramente un enorme individuo. El agente representativo es una falsedad conveniente.
Se ha demostrado repetidas veces que la heterogeneidad entre los agentes individuales es el factor clave a la hora de explicar el fracaso de la hipótesis del agente representativo (Kirman 1992, 128). Forni y Lippi (1997, x–xiii) encuentran que incluso en los casos más sencillos la agregación de agentes heterogéneos significa que las relaciones entre las variables microeconómicas no tienen que ser necesariamente aplicadas a niveles más agregados. Además, la dinámica a nivel macroeconómico es por lo general muy diferente a la del nivel microeconómico (x–xii).

Este hallazgo ha llevado a ciertos economistas a la conclusión de que la heterogeneidad es también la clave para analizar los patrones conjuntos. Por ejemplo, Martel (1996, 137) sugiere que “la heterogeneidad […] puede ser un determinante más importante del comportamiento mercantil que las implicaciones de la maximización de la utilidad individual”. Martel (1996, 137–138) cita a Hildebrand (1994) y Grandmont (1992) a los efectos de poner de manifiesto que si los consumidores que maximizan la utilidad son lo suficientemente heterogéneos, se hace posible construir una “función de demanda de mercado que posea las propiedades de estabilidad deseables de Hicks”.

Pero si bien la heterogeneidad aniquila la posibilidad del agente representativo, no es fuente de patrones agregados estables. De lo que se trataba todo el rato con los argumentos de la sección anterior era de demostrar que pueden surgir patrones estables de consumo y producción a partir de estructuras configuradoras como la restricción presupuestaria y el nivel mínimo de ciertos bienes. Los agentes en el modelo Neoclásico de Agente Homogéneo son idénticos, mientras que los de los otros modelos son claramente heterogéneos. Pero todos esos cuatro modelos de simulación rinden las mismas curvas de demanda y de Engel y las elasticidades vinculadas con ellas. Al mismo tiempo en ausencia de restricción presupuestaria, nada podemos afirmar de los patrones conjuntos. La heterogeneidad es ciertamente la regla general y su existencia anula cualquier idea de agente representativo. Pero las estructuras configuradoras son los elementos críticos.
Una segunda lección que puede extraerse del análisis de la sección precedente. Pese a las diferencias entre los agentes en los cuatro modelos de simulación, poseen todos ciertas propiedades comunes: su consumo depende de sus ingresos, de los precios, y de cierto nivel mínimo del bien básico. De modo que podemos representar el consumo del agente SIGNO como SIGNO. Las configuraciones de las funciones de consumo individual varían de modelo a modelo: son simples y lineales en los primeros dos modelos pero en los dos últimos resultan más complejas porque los parámetros parían entre los individuos y a los largo del tiempo. Ya hemos visto que la función de consumo agregado puede no obstante ser lineal y estable en todos los casos: por ejemplo (SIGNO). Lo que resulta igualmente interesante es que mientras la forma concreta de la función puede variar según pasamos de la micro a la macro, las variables relevantes no pueden. En los cuatro modelos la función de producción macro tiene los mismos argumentos que la micro: (SIGNO)

Por descontado, no todas las variables sobreviven la transición de micro a macro (Martel 1996, 128). Queda implícito en los tres modelos con agentes heterogéneos que son una variedad de factores sociales los que pudieren determinar los ingresos individuales, los niveles mínimos de consumo y la propensión al consumo. Sin embargo, en la medida en que tal multitud de variables engendra una propensión media estable, la existencia de estos factores carece de importancia a nivel agregado. Lo que importa es la existencia de una vinculación teórica entre el consumo y las variables particulares que le afectan, y cierta comprensión de cuáles de éstas últimas cuentan a nivel agregado. Y es aquí cuando entran en el cuadro los fundamentos microeconómicos.

De este modo podemos concretar cinco rasgos de un análisis riguroso agregado. Debe ser fundado en cierta teoría de los factores relevantes a nivel macroeconómico. Debe tomar en cuenta el hecho de que sólo unos cuantos de estos factores pueden ser relevantes a nivel macroeconómico. Debe reconocer que la forma funcional agregada será bien distinta de las microscópicas correspondientes, lo que implica que no existe tal cosa como un agente representativo. Una implicación de la última razón es que no podemos rechazar cierta función agregada ajustada sencillamente porque no se conforme con la forma funcional supuesta, o incluso probada, a nivel macroeconómico. Por descontado, si podemos derivar formalmente la forma agregada esperada, como se hizo en la sección anterior para el consumo agregado, podemos ponerla a prueba directamente. De otro modo, en el seno de las limitaciones de las relaciones funcionales teóricamente esperadas, debemos dejar que la factibilidad y el vigor empírico guíen nuestra elección de la forma funcional exacta. Los macro-economistas rigurosos tendrán bien presente que existirán diversos micro-fundamentos coherentes con cualquier patrón conjunto dado. Por consiguiente, no deben confundir el respaldo empírico para una hipótesis sobre el conjunto con el respaldo empírico a algún micro-fundamento concreto. Por ejemplo, un incremento en la renta agregada que lleve a un aumento en el consumo agregado difícilmente justifica la tesis de que todos los consumidores son, por la presente, más felices. Esta última razón es importante, tanto que no se tiene que explicar, en cuanto a las políticas públicas. El lugar correcto para poner a prueba la validez de cierta hipótesis microscópica es el nivel microscópico, salvo cuando no es susceptible de ser sometido a prueba a este nivel y asimismo posee una implicación agregada singular.

Por último, una teoría económica rigurosa siempre debe tener en mente que el proceso en el que se alcanza el equilibrio es una hipótesis cuya misma existencia, estabilidad, velocidad y forma de operación debe ser abordada de forma explícita. En la política económica, por ejemplo, la idea de que la oferta y la demanda agregada se hallan en equilibrio constante posee muy diferentes implicaciones de la idea de que lleva de tres a cinco años (el ciclo de inventario) traer un equilibrio bastante tosco entre estas variables en perpetuo movimiento.

La economía ortodoxa se tiene por moderna y rigurosa al sostener que se basa en micro-fundamentos. Pero su fe en la idea de los agentes representativos vicia tales asertos. El emperador está desnudo. (Kirman 1989). Por otro lado, resulta interesante observar que la macroeconomía “a la vieja usanza” cumple con la mayor parte de la exigencias para un análisis económico conjunto. Tres ejemplos clásicos pueden encontrarse en el análisis de Keynes (1964) de la función de consumo conjunta, en el análisis de Kalecki (1968) del nivel de precios agregado, y en la derivación de Friedman de la demanda monetaria.

Keynes basa su análisis de la producción conjunta en factores subyacentes subjetivos y objetivos que, además del ingreso personal, influyen en el comportamiento de los ahorros individuales (ausencia de consumo). Los factores subjetivos comprenden el deseo de proveer para el consumo futuro y los imponderables, emplear la inversión pasiva y especulativa para agrandar sus rentas futuras, amasar riqueza, e incluso, en algunos casos, gozar siendo unos simples tacaños. Los factores objetivos comprenden ganancias abundantes e inesperadas, los impuestos, los controles de precios, las expectativas y la variación del tipo de interés. Keynes tiene mucho cuidado a la hora de observar que los factores sociales e institucionales configuran y canalizan todos esos factores. En un nivel conjunto, lo que sobrevive es el ingreso real como determinante clave del consumo efectivo, y el resto de factores se manifiestan por medio de su influencia en su papel configurador y en el nivel de la función de consumo agregado. Por último, por muy diversos que puedan ser los patrones de consumo de los individuos, la función de consumo agregado es bastante sencilla: como la propensión marginal (Hansen 1953, ch. 4)

La teoría de los precios de Kalecki sigue una trayectoria más concreta de la microeconomía a la macroeconomía. Comienza concretando el precio de la empresa “ithy” como xxxxxx, donde pi y avci representan los precios unitarios de la empresa y los costes primarios, p el precio medio en la industria y mi y ni los coeficientes de poder monopólico que determinan la política fijadora de precios de la empresa. Estos coeficientes reflejan a su vez el tamaño relativo de las diversas empresas, su aparato de promoción de ventas e incluso el poder de los sindicatos entre sus empleados. A nivel conjunto, la relación de precios se transforma en la forma donde xxxxxx. Por consiguiente, únicamente las dos principales variables, el precio y los costes unitarios, concluyen a nivel agregado, y todos los demás son empaquetados en el grado conjunto de poder monopólico. Además, la forma de la relación agregada resulta diferente de la de nivel de empresa. Friedman sigue un trayecto similar. La demanda monetaria a nivel micro se dice que depende de las preferencias heterogéneas individuales y de la riqueza, junto con el tipo de interés global en la economía y la tasa esperada de inflación. Con todo en el nivel agregado esto se torna en una relación estable entre la demanda agregada de dinero, los balances reales, y la tasa real de interés. (Snowdon y Vane 2005, 166-169)
Por consiguiente esos tres autores, cumplen con los tres primeros requisitos de una macroeconomía rigurosa: basan su análisis en el comportamiento individual; reconocen que sólo unas pocas variables clave se aplican a nivel conjunto; y plantean diferentes formas funcionales para las relaciones macroeconómicas que para las microeconómicas. Con respecto al cuarto requisito, aunque no abordan de forma explícita la posibilidad de que una diversidad de macro-fundamentos pueda dar lugar a idénticas relaciones agregadas a aquellas que plantean, resulta difícil imaginarnos que encontrarían sensacional este aspecto de la política económica.

V. GRAVITACIÓN TURBULENTA.

Lamento decir que no he tenido mucha experiencia con el equilibrio económico. La verdad es que hasta donde soy consciente, ninguna en absoluto. Algunas veces veo planteamientos que nos cuentan que estaremos aproximando al equilibrio el año que viene o quizás dentro de dos años, pero de alguna manera este equilibrio se resiste que no vean. (Ensayo del FMI sobre “En búsqueda del equilibrio” Euromoney, Octubre de 1979, Sir Gordon Richardson, Gobernador del Banco de Inglaterra, citado en Davies 2002, 659)

1. El equilibrio en tanto que proceso turbulento frente al equilibrio como un estado que se alcanza.

Es importante que se distinga entre la idea convencional de equilibrio como un estado que se alcanza y la idea clásica de equilibrio como un proceso gravitatorio. La idea convencional supone que una variable de algún modo llega a un punto de equilibrio y allí se queda, no se sabe cómo. El tiempo y la turbulencia no salen en el cuento, y el foco pasa a los estados de equilibrio y a las trayectorias constantes. Esta es, de lejos, la idea más preponderante que se tiene del equilibrio tanto en la economía ortodoxa como en la heterodoxa (Blanchard 2000, 46–51). La idea clásica de equilibrio es bastante distinta.

Se piensa que el equilibrio medio se consigue tan sólo mediante desequilibrios recurrentes y compensadores. Un equilibrio exacto es un fenómeno transitorio, ya que cualquier variable dada está constantemente por encima y por debajo de su centro gravitacional. El proceso que equilibra es por consiguiente intrínsecamente cíclico y turbulento, hallándose sometido a “flucutuaciones que se repiten a sí mismas” de diversa amplitud y duración. (Van Duijn 1983, 4–5).

Las gráficas 3.12 y 3.13 ilustran las dos ideas en conflicto.

Gráfica 3.12. Equilibrio en tanto que un Estado Conseguido. (Ajuste estable monotónico)

Gráfica 3.13. Equilibrio como Gravitación Turbulenta (Ajuste Estable Monotónico con Ruido)

2. La estática, la dinámica y los ciclos de crecimiento.

Una forma sencilla de efectuar la transición de la estática a la dinámica es apercibir que la variable (x) que aparecía en las cartas anteriores puede ella misma ser la proporción de otras dos variables, o, de forma alternativa, una tasa de crecimiento. Por ejemplo, el multiplicador simple keynesiano implica que la producción de equilibrio a largo plazo, donde where It = inversión fija y s= una tasa de ahorros dada de forma exógena. Si interpretamos nuestra variable genérica como la fracción de la inversión en el producto real y como la tasa de inversión en el producto de equilibrio, como la producción real es por lo general distinta a la producción de equilibrio, cada una de nuestras cartas anteriores representan una trayectoria posible de la fracción de la inversión real que fluctúa alrededor de la fracción keynesiana de equilibrio a corto plazo. Tenemos entonces que incluso una trayectoria estacionaria en relación con la fracción de inversión puede traducirse en trayectorias correspondientes de crecimiento para los productos reales y de equilibrio. Un punto de partida alternativo sería interpretar como la tasa de crecimiento de equilibrio de (digamos) el producto, y xt como la tasa de crecimiento real. En cada uno de los casos, terminamos con un crecimiento turbulento como en las Gráficas 3.13 y 3.14. Esas cuestiones se abordan con un detalle mucho mayor en el capítulo 13.

Gráfica 3.14. Equilibrio como Crecimiento Turbulento (Ajuste estable monotónico en una trayectoria de crecimiento, con conmociones (shocks)

3. Diferencias en las dimensiones temporales de las variables económicas clave.

Una vez que se comprende que el equilibrio es un proceso gravitatorio turbulento, no nos queda otra que preguntar cuánto tiempo puede llevar. No tener en cuenta esas consideraciones es una invitación a incurrir en errores prácticos graves.

Considérese el proceso fundamentalmente competitivo de igualación de la tasa de ganancia que se había visto en las Gráficas 2.12 y 2.13. La Tabla 3.2 aporta estimaciones grosso modo del lapso temporal medio que lleva a la tasa de ganancia incremental de cada industria orbitar sobre la de la manufactura de los EEUU en su conjunto.

Uno esperaría que la duración de los ciclos variara de forma considerable a lo largo de las distintas ramas industriales. Ciertamente, los ciclos individuales van de 2 a 7 años. Sin embargo la duración de los ciclos medios en cada industria es muy parecida, pues todas se hallan en esencia en el rango limitado de cuatro o cinco años, incluso aunque la sincronización sea diferente entre ramas industriales. Se trata de un hallazgo interesante, teniendo en cuenta que la igualación de la tasa de ganancia suele contemplarse como un fenómeno “a largo plazo”. (Mueller 1986, 12-13) El capítulo siete abordará ésta y otras cuestiones.

Tabla 3.2. Duración de los Ciclos de Igualación de la Tasa de Ganancia Incremental, rama manufacturera de los EEUU, 1960-1989.

Observación: duración promedio de los ciclos industriales que orbitan la tasa de ganancia incremental de todo el sector manufacturero de EEUU.
La igualación de las tasas de ganancia se rige por la reacción de la inversión industrial con respecto a la rentabilidad. Cuanto más elevada sea la tasa de ganancia, mayor es el incentivo para que las empresas aceleren la expansión de la producción y de la capacidad.

La expansión del producto exige inversión circulante, es decir, materias primas adicionales, trabajo que se está haciendo, y mano de obra), mientras que la expansión de la capacidad exige capital fijo. Las industrias con tasas de ganancia más elevadas experimentarán la aceleración del crecimiento hasta que su producto comience a crecer con mayor rapidez que su demanda, pues en ese punto sus precios y tasas de ganancia comenzarán a descender.

Lo contrario es la verdad en el caso de las industrias con tasas de ganancia inferiores. Dos cosas se siguen de esto. Las tasas de ganancia de las industrias individuales sobre la nueva inversión fluctuarán en torno a la tasa de ganancia global correspondiente. Esto es la igualación de las tasas de ganancia.

Pero como la propia tasa de ganancia media sobre la nueva inversión fluctúa, también lo harán las tasas globales del crecimiento del producto y la inversión en la economía en su conjunto. Los estudios sobre el ciclo industrial han identificado dos tipos principales de fluctuaciones recurrentes agregadas, ligadas cada una de ellas a la inversión en una clase determinada de capital fijo; (1) ciclos de inventario de orden de tres a cinco años; y (2) ciclos de bienes de equipo de siete a once años. Es interesante observar que ahora utilizamos el término “ciclo comercial” para designar el ciclo de inventario de tres a cinco años, en tanto que en el siglo XIX y comienzos del XX el mismo término aludía al ciclo de bienes de equipo (decenal) de siete a once años. (Van Duijn 1983, 7-8)
Por último existe la posibilidad de ondas largas que se piensa que se hallan en el orden de 45 a 60 años (Van Duijn 1983, capítulo 1; Su 1996, capítulo 7). Estos casos se habían descrito anteriormente en la gráfica 2.10 y se abordan con más prolijidad en el capítulo 5, gráficas 5.5-5.6 y en el capítulo 16, Gráfica 16.1.

Los ciclos de inventario y de bienes de equipo se hallan inextricablemente ligados a dos proporciones económicas fundamentales: los inventarios están ligados al equilibrio entre la oferta y la demanda, mientras que los bienes de equipo de capital están ligados con el equilibrio entre la capacidad y la producción real. Como la producción lleva tiempo, las empresas deben comenzar a producir mucho antes de las ventas que estiman realizar. Con el fin de mantener la continuidad de la producción, deben disponer de inventarios de materias primas y controlar el trabajo que se va realizando, y con el fin mediar en la arriesgada transición de la producción finalizada y la venta en el mercado, se impone la llevanza de inventarios de bienes fabricados. En un sistema en crecimiento, existirá una proporción (normal) de ventas-inventario para cada tipo de inventario. Si las ventas reales se corresponden con las estimadas en el momento en el que comenzó la producción, las proporciones reales de inventario y ventas serían equivalentes a las proporciones normales correspondientes. Pero esto es una circunstancia excepciona ya que, en general, las ventas reales y esperadas serán diferentes, como ocurrirá en el caso de las proporciones entre ventas e inventarios corrientes que se corresponden con lo anterior. Esto se ve mejor en los inventarios de los bienes finales, ya que las ventas que excedan la producción presente agotan los stocks de bienes finales mientras que las ventas que sean inferiores a la producción real hacen que se acumule el inventario. (Van Duijn 1983, 8-9) El empleo de inventario es por consiguiente una aproximación para designar el exceso de oferta. Cuando se tiene en cuenta que el ciclo de inventario es del orden de tres a cinco años, se puede contemplar lo anterior como el plazo que suele llevar que se produzca el equilibrio entre la oferta y la demanda agregada, es decir, como la dimensión temporal del “corto plazo”.

En un mundo Walrasiano se supone que los mercados “se vacían constantemente” de modo que el corto plazo es bastante corto en realidad. Al propio Keynes le solía preocupar la estadística comparativa, de modo que el tiempo desaparece de este enfoque. Pero en otros lugares de su obra reconoce que la producción, y por lo tanto el funcionamiento del multiplicador, lleva su tiempo. En su exposición tiende a oscilar entre un periodo de tiempo sometido a observación dado que es lo bastante breve para analizar el funcionamiento del multiplicador y un periodo lo bastante largo para que el multiplicador funcione y por consiguiente para que se obtenga el equilibrio a largo plazo (Asimakopoulos 1991, 52, 67.68) El análisis de la macroeconomía moderna pasa por alto estas cuestiones suponiendo sencillamente que la oferta y la demanda se equilibran suficientemente rápido como para permitirnos tratar los datos observados (como suele ser corriente en macroeconomía datos trimestrales) como si representaran resultados de equilibrio (Pugno, 1998, 145; Godley y Lavoie 2007, 65).

Pero si nos encontráramos con un corto plazo de 12 a 15 trimestres, tendríamos que alterar de forma sustancial los modelos y la metodología empírica. De modo análogo, la capacidad de producción se halla ligada al stock de capital fijo, de modo que la proporción entre producto y capital es una aproximación a la proporción entre producción y capacidad (es decir, para la tasa de empleo de la capacidad). Desde este punto de vista, el ciclo de bienes de equipo de siete a once años puede representar el tiempo que tarda la capacidad de utilización real para orbitar en torno al nivel normal. Esto definiría la dimensión temporal del “largo plazo” que, hay que decirlo, es suficientemente prolongado para lamentarse pero no tanto como para morirse.

Lo anterior nos lleva a la celeridad del ajuste de otros mercados. Como los activos financieros se pueden generar con prontitud y los precios son flexibles, parece razonable que los mercados financieros cambien con más velocidad que los mercados de mercancías (Gandolfo 1997, 553). Al mismo tiempo, son más propensos a las burbujas, así que no está nada claro que lleguen al equilibrio más rápido. El mercado de trabajo es particularmente complicado debido a la naturaleza peculiar de la fuerza de trabajo como mercancía. Salvo en ciertas modalidades de esclavitud, lo se fabrican personas para responder a la demanda de trabajo, de modo que la oferta global de horas de trabajo potenciales no se determina por la demanda. Sin embargo la oferta efectiva local de horas de trabajo puede aumentarse induciendo a los trabajadores a pasar de la fuerza de trabajo inactiva a la activa, cambiando su localización geográfica (emigración) y/o modificando la duración y la intensidad de la jornada (hacer trabajo extra o acelerar la producción). Por ello la oferta de trabajo efectiva es flexible dentro de límites amplios. Y aquí es donde entra en juego otra faceta de la naturaleza especial de la fuerza de trabajo. Si los precios relativos de otras mercancías se determinan fundamentalmente por el mercado, el salario real posee otros determinantes sociales e históricos: el precio relativo de la fuerza de trabajo es sensible a las condiciones del mercado laboral pero sólo se determina parcialmente por ellas (capítulo 14). Veremos que la naturaleza dual de la fuerza de trabajo al estar en el mercado de trabajo pero no pertenecer al mercado de trabajo es lo que explica la persistencia del paro. Por consiguiente el mercado de trabajo es probable que sea el más ralentizado de los mercados conjuntos. Todo ello apunta a la necesidad de ir más allá de la distinción convencional entre corto y largo plazo.

La tabla 3.3 plantea una posible serie ampliada. Esta tipología conserva el corto plazo como el periodo a lo largo del cual se equilibran la oferta y la demanda agregada (Keynes y Harrod) y el largo plazo como el dominio del ajuste de la capacidad y el mercado de trabajo (Harrod). Pero los plazos de tiempo reales planteados son muy distintos de los que se hallan implícitos en la literatura. Por ejemplo, Blanchard (2000, 19. 30-31) alude al periodo a lo largo del cual la oferta y la demanda se equilibran como el corto plazo, que en este supuesto es menos de un año. Su medio plazo, que representa una o dos décadas, es el periodo a lo largo del cual el producto se determina por factores de oferta como el stock de capital, la tecnología y la mano de obra. Y este largo plazo de medio siglo o más es el periodo en el que el sistema educativo, la tasa de ahorro y la calidad del gobierno determinan la tasa de crecimiento de un país.

Tabla. 3.3 Tipología sugerida de velocidades de ajuste.

Corto plazo (de tres a cinco años) Mercados de bienes, ciclo de inventario, igualación de la tasa de ganancia, Largo Plazo (de siete a once años), empleo de la capacidad, ciclo de bienes de equipo, mercado laboral.

I- Resumen e implicaciones principales.

La existencia de patrones estables recurrentes a nivel nacional suscita tres cuestiones metodológicas principales y varias cuestiones subsidiarias. Las tres principales preguntas son: ¿De qué modo modelamos los procesos micro subyacentes? ¿Qué ligazón existe entre los patrones macro y los procesos micros? ¿Y de qué herramientas debemos servirnos para el análisis macroeconómico?

La respuesta macroeconómica corriente a la primera pregunta es que debemos configurar el comportamiento microeconómico en términos de la elección egoísta, el conocimiento perfecto y todos los demás pertrechos de lo que llamo racionalidad extrema. La Sección II.1, aborda el debate en torno a esta cuestión. Existe una gran cantidad de pruebas que indican que la premisa de la racionalidad extrema es una representación muy deficiente del comportamiento real. Sin embargo se defiende con muchos argumentos que van desde la afirmación de que al menos nos concede resultados tratables analíticamente hasta el que dice que rinde buenas predicciones empíricas. Como poca relevancia tienen los resultados analíticamente tratables si no son relevantes empíricamente, la atención inevitablemente debe pasar a esto último. Es en este punto en el que se suele recurrir a la famosa afirmación de Friedman de que lo único que importa son las predicciones, no los supuestos. Como han apuntado muchos, el principal defecto de este argumento es que los supuestos que tratan del comportamiento individual son en sí mismos predicciones microeconómicas.
No se puede limitar el enfoque personal a las predicciones que son coherentes con las pruebas empíricas y hacer caso omiso de las que no lo son. La teoría de la preferencia revelada, la teoría de juegos, la teoría de la familia de Becker e incluso el Marxismo Analítico se analizan bajo este prisma.

Otra manera de apuntalar lo anterior es considerar que la racionalidad extrema es un fundamento ideal de la acción. Sus valedores admiten sin reservas que los individuos en realidad no se comportan así, pero sostienen que deberían. Desde esta perspectiva, el problema es de la realidad, que nunca está a la altura. Pero se podría igualmente dar la vuelta a esta clasificación, llegando a la conclusión de que es el modelo de racionalidad extrema el que no está a la altura ya que la elección social es una tarea mucho más compleja que la imaginada dentro de este marco tan estrecho y limitado. El Homo Economicus, de haber existido alguna vez, sería un “retrasado mental social” (Sen 1977, 336) Sin embargo este constructo completamente inadecuado se empeña en seguir dominando el discurso económico convencional. Yo sostengo que la razón fundamental de este fenómeno es que la doctrina de la racionalidad extrema desempeña una función instrumental y apologética al pintar el capitalismo como un sistema eficiente y óptimo (o sub-óptimo)

La sección II.2 analiza la relación entre los procesos micro y los patrones macro. La aproximación convencional es configurar el comportamiento de consumidores y productores como si se tratara de los resultados de las acciones de un único consumidor super-racional y una única empresa perfectamente competitiva. Por desgracia, se conoce bien en ambos dominios que no es sencillamente posible representar los conjuntos de esta forma. Si todos los individuos son exactamente iguales, la vinculación entre micro y macro se convierte en una trivialidad.

Y si sucede que todos los individuos alinean de forma voluntaria su comportamiento por algún motivo social, como en un boicot o una huelga, la vinculación es algo excepcional. Pero de otro modo, los conjuntos poseen propiedades emergentes. El agente medio, que no es sino otra forma de designar al conjunto, será muy distinto del agente representativo. Además, el comportamiento medio no responderá a los detalles de los comportamientos individuales: la agregación es claramente transformadora.

La Sección II.3 aborda la tesis neoclásica de que las leyes agregadas no pueden ser rigurosas a menos que se deriven de fundamentos micro. Surgen aquí tres cuestiones interesantes, que pueden ilustrarse con analogías tomadas de la física. En primer lugar, existen muchas leyes físicas fundamentales, como la Teoría de la Relatividad General de Einstein, que hasta ahora no han podido conciliarse con sus presuntos fundamentos micro en la Mecánica Cuántica. Esto es así incluso si ambos enfoques han coexistido durante un siglo. En segundo lugar, la falta de integración entre ambas suscita la posibilidad de que es la Mecánica Cuántica, y no la Teoría de la Relatividad, la que carece de rigor porque carece de fundamentos macro.

Ciertamente esta era la opinión del propio Einstein y aún hoy la comparten otros físicos. En tercer lugar, es posible llegar a un patrón macro existente a partir de fundamentos micro falsos. Por ejemplo, la Ley de los Gases se deriva de modo general de la teoría cinética como el resultado de millones de colisiones de los átomos del gas semejantes a las de las bolas de billar. Por desgracia, los átomos son etéreas entidades cuánticas que en nada se parecen a las bolas de billar, que por no tener no tienen ni una posición reconocible.

Los paralelos con la economía son patentes. Puesto que en el ámbito macroeconómico se apreciarán propiedades emergentes, puede considerarse perfectamente riguroso sin tener que recurrir a fundamentarlo en la microeconomía. Ciertamente es igual de mañero argumentar, como lo hace Han, que la microeconomía no es rigurosa a menos que haya sido situada en, y por lo tanto si es dependiente de, la macroeconomía. El individuo debe ser imaginado en su entorno social, estructurado y configurado por su nacionalidad, género, grupo étnico y clase. Por último, incluso si uno alcanza un patrón económico probado por medio de alguna hipótesis microeconómica, el hecho de que sea posible llegar a un resultado correcto a partir de una premisa incorrecta exige que valoremos la validez empírica de cada premisa en conflicto.

Esta última cuestión es nuclear en la sección III, donde se demuestra que diversos fundamentos micro rinden todos ellos los mismos patrones mercantiles. Elaborando a partir del trabajo temprano (1962) de Becker, las secciones III.1 a III.4 demuestran que ciertos patrones de consumo importantes pueden derivarse únicamente de dos estructuras configuradoras: la restricción presupuestaria y un nivel mínimo de consumo de bienes básicos. Basta con ambas para derivar curvas de demanda de mercado de pendiente descendiente, elasticidades renta menores que uno para los bienes básicos y de más de uno para los bienes de lujo (Ley de Engel) y funciones de consumo agregado de tipo keynesiano que son lineales en ingreso real a corto plazo e incorporan efecto renta a largo plazo. Todo lo que hace falta es que una población dada llegue a cierta proporción estable de consumo promedio. Se emplean cuatro modelos distintos de comportamiento individual para ilustrar el argumento general: un modelo de agente representativo con consumidores neoclásicos idénticos; un modelo de consumidores neoclásicos heterogéneos donde no existe un agente representativo; un modelo en el que todo consumidor obra caprichosa o aleatoriamente para decantarse por cierta canasta de consumo que sea asequible en función de su renta (es el consumidor impulsivo de Becker); y un modelo en el que algunos consumidores imitan a los de su entorno en tanto que otros desarrollan nuevas preferencias (innovan). Esos cuatro casos rinden idénticos resultados agregados, ya que son las estructuras configuradoras socialmente construidas, no los fundamentos micro, las que desempeñan el papel clave. La Gráfica 3.15 resume el argumento principal de esta sección.
Gráfica 3.15. Micro-independencia de las propiedades emergentes Macro.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
 Asunto: Re: Capitalismo, competición y crisis. Anwar Shaikh
NotaPublicado: Vie Feb 10, 2017 2:29 pm 
Desconectado
Más Feliz que una Perdiz
Avatar de Usuario

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 68692
Ubicación: Rusia, Venezuela, y a Cuba como al marido de la reina
El mismo enfoque puede emplearse para desarrollar una teoría del salario promedio real (capítulo 14, sección III). En este caso, la “restricción presupuestaria” para cualquier empresa dada surge de la identidad de que su valor real añadido por obrero es la suma de los salarios reales y la ganancia real por obrero. Por consiguiente la pugna desigual entre capital y trabajo en un clima social particular lleva a una proporción particular entre ambas. Una vez más, muchos modelos micro diferentes de las relaciones entre obreros y patronos son compatibles con los resultados macro, y mientras cualquier modelo dado produce una distribución estable de resultados, la fracción de salarios y ganancia es “vigorosamente insensible” a los detalles micro.

La Sección IV destila cinco lecciones del análisis macroeconómico. La disparidad entre los agentes significa que rasgos microeconómicos como la causalidad de Granger, la co-integración entre variables, identificar en demasía restricciones e incluso propiedades dinámicas particulares no se aplican a nivel agregado. La heterogeneidad implica por tanto que las funciones agregadas ajustadas no tienen que corresponderse con la forma funcional supuesta a nivel microeconómico. Sin embargo, la heterogeneidad no es necesariamente la fuente de patrones agregados estables, ya que esta última puede surgir directamente a partir de las estructuras configuradoras.

Si bien la forma funcional puede modificarse cuando pasamos de la micro a la macro, ciertas variables claves sí se aplican. Por ejemplo, en el supuesto de cuatro modelos diferentes basados en agentes, tanto los precios, como la renta y el nivel mínimo de consumo de bienes básicos siguen siendo relevantes a nivel conjunto. Sim embargo otros factores sociales que determinan de forma implícita las variaciones entre los agentes individuales sólo se manifiestan por medio de sus efectos en los parámetros conjuntos. Por consiguiente las relaciones macro se fundamentan a nivel micro pero no de la forma que dice la teoría convencional. Es en este punto cuando las estructuras sociales configuradoras desempeñan un papel crucial ya que aportan límites y gradientes cuyos efectos canalizan las acciones individuales.

La macroeconomía rigurosa debe por tanto fundar su análisis en el comportamiento individual, hacer cuenta de que sólo unas pocas variables clave se aplican a nivel conjunto y, de forma general, plantear diferentes formas funcionales a nivel macro. Keynes y Kalecki son destacados exponentes de esto. Keynes elabora su análisis del consumo conjunto sobre la base de la renta personal y de una diversidad de factores objetivos y subjetivos que ejercen influencia en el comportamiento del ahorro individual (abstenerse de consumir) También tiene mucho cuidado en observar que los factores organizativos e institucionales desempeñan un papel importante.

Pese a todo lo anterior, sólo exige que el consumo real conjunto sea una función del ingreso real con la propiedad de que la propensión marginal al consumo sea menor que uno. La teoría de Kalecki del precio sigue una trayectoria similar, pasando de la micro a la macro. Comienza con una ecuación del precio de una empresa individual que depende del tamaño relativo de la firma, su aparato de promoción de ventas y el poder sindical de los operarios. Pero el nivel de precios de la industria posee una diferente forma funcional, ligada a una reducida serie de variables que consisten en los costes unitarios medios de la rama industrial y el nivel promedio de poder monopólico (por medio del cual se expresan las demás variables) Friedman hace lo mismo, pasando de una serie de variables que determinan la demanda de dinero a nivel micro hasta llegar a una serie modificada y reducida de variables a nivel macro. Se pueden apreciar trayectorias parecidas en Marx, Schumpeter y muchos otros economistas prominentes. El análisis macroeconómico ya era riguroso antes de que fuera desviado por el análisis neoclásico hasta llegar al callejón sin salida teórico de un agente representativo dotado de racionalidad extrema.
Puesto que por lo general existirán muchos microfundamentos coherentes con algún patrón dado conjunto, el respaldo empírico para las hipótesis agregadas no supone respaldo empírico de macrofundamentos microeconómicos concretos. Un aumento en la renta agregada puede muy bien vincularse con la menor satisfacción de muchos consumidores, digamos si se debiera en gran medida al incremento de los ingresos de algún grupo especialmente mal visto.

Por consiguiente el verdadero ámbito de los microfundamentos radica en consideraciones políticas. El propio Lucas apunta que los modelos de predicción macro a corto plazo funcionan perfectamente sin fundamentos teóricos basados en la elección: “Pero si uno quiere saber cómo es probable que el comportamiento se modifique debido a un cambio en la política económica, hace falta configurar la forma en que la gente toma decisiones”. (Snowdon y Vane 2005, entrevista con Robert Lucas, 287) La pregunta, por descontado, es por qué demonios tenemos que insistir en derivar implicaciones de política económica a partir de fundamentos que representan de modo incorrecto y deliberado el comportamiento económico real.
La Sección V de este capítulo abordará la segunda cuestión que se plantea al comienzo de este resumen: ¿qué ideas son adecuadas para analizar los patrones turbulentos presentados en el capítulo 2?

El primer paso es fijar una clara distinción entre la idea convencional de equilibrio como un estado que se alcanza, y la idea clásica de equilibrio como proceso turbulento. La anterior, que es la noción preponderante tanto en la economía ortodoxa como en la heterodoxa, hace que el foco cambie a estados de equilibrio y trayectorias sostenidas. Esto es más claro aún en la teoría del equilibrio general, en la que todo el ejercicio teórico se limita a tratar de asegurar que existe al menos un punto general de equilibrio. No se ha probado de forma general ni la singularidad de este punto ni su estabilidad. (Kirman 127-129) Resulta también común en el análisis heterodoxo, donde suelen compararse dos equilibrios diferentes como si se trataran de estados de reposo (capítulo 12). Por otro lado, la gravitación turbulenta implica que sólo se puede llegar al equilibrio por medio de desequilibrios recurrentes y compensadores, de modo que el proceso de equilibrio es por su propia naturaleza cíclico, turbulento, y sometido a fluctuaciones que se repiten a sí mismas, de diversa amplitud y duración. En la jerga económica moderna, un punto de equilibrio estable es un “atractor” pero en general no un estado de equilibrio. Un ulterior análisis revela que el mismo centro subyacente de gravedad puede ser él mismo una trayectoria de crecimiento.
Por último, como la gravitación turbulenta es el supuesto normal, sería incurrir en un grave error analítico hacer caso omiso del tamaño o de la dimensión temporal de las fluctuaciones implicadas en una fluctuación gravitatoria media. La Sección V.3 analiza la dimensión temporal de la igualación de la tasa de ganancia, de los ciclos de inventario y de los bienes de equipo, y de las ondas largas. Suele argumentarse que los ciclos de inventario de tres a cinco años reflejan el tiempo que suele llevar que la oferta y la demanda agregadas lleguen al equilibrio, de modo que representan la dimensión temporal correcta del “corto plazo” Keynesiano.

Lo anterior llevaría consigo llamativas implicaciones para el análisis macroeconómico empírico, ya que la mayor parte del mismo trata de datos observados trimestralmente, considerados representativos de los valores de equilibrio de las variables implicadas. De forma análoga, se argumenta que el ciclo de bienes de equipo de 7 a 11 años refleja el tiempo que lleva que la capacidad de utilización real orbite en torno al nivel normal. Como tal, representaría la dimensión temporal del “largo plazo” de Harrod.

Los mercados financieros son asunto complejo debido al hecho de que están sometidos intrínsecamente a burbujas. El mercado de trabajo es singular ya que posee dos dimensiones. Aunque la población reacciona de forma ralentizada a los incentivos económicos, la existencia de una reserva nacional e internacional de fuerza de trabajo desempleada implica que la oferta efectiva local de trabajo puede responder a la demanda de trabajo al inducir a los trabajadores a cambiar su estatus inactivo por la actividad laboral, cambiar su ubicación geográfica y/o cambiar la duración y la intensidad de su jornada laboral. Por consiguiente la oferta efectiva de trabajo es flexible dentro de límites muy amplios. En segundo lugar, si bien los precios relativos de otras mercancías se determinan fundamentalmente por el mercado, el salario real refleja no sólo las condiciones del mercado de trabajo sino también diversos factores sociales e históricos. Por consiguiente el precio relativo de la fuerza de trabajo sólo responde parcialmente a las condiciones del mercado de trabajo. Esta sección concluye proponiendo una tipología de los ritmos de ajuste de los diversos procesos macroeconómicos que es muy distinta de los que se hallan implícitos en la literatura convencional.

Tenemos tres asuntos de la máxima importancia. En primer lugar, la tesis de que si descartamos el supuesto de racionalidad extrema “la teoría económica degenerará en un batiburrillo de hipótesis ad hoc […] que carecerá de cohesión global y no podrá ser falsada desde el punto de visto científico”. (Conlisk 1996, 685)

He argumentado con anterioridad que la doctrina de la racionalidad extrema se basa en supuestos que científicamente son insostenibles. Así que a mí por lo menos me parece que sería útil analizar qué ocurriría si descartamos todo esto y nos ponemos a elaborar nuevos fundamentos micro que se basen en el comportamiento real.

Ciertamente comprenderemos mejor la verdadera complejidad del comportamiento individual. No perdemos predictibilidad, ya que los hábitos y el condicionamiento social pueden hacer que el comportamiento individual sea bastante predecible. Conservamos el hecho innegable de que los individuos toman decisiones, pero en condiciones que no eligen ellos mismos muchas veces. Reconocemos que la razón desempeña cierto papel a la hora de explicar el comportamiento humano, pero que siempre está teñida por emociones, sesgos cognitivos, prejuicios e ilusiones. Los incentivos tienen importancia, pero no todos obran en la parte central del cerebro. Una vez que admitimos todo esto, no somos prisioneros de la tesis de que el libre comercio y el libre mercado siempre mejoran nuestra posición, o de la ristra de asertos relacionados sobre las virtudes del capitalismo o los defectos intrínsecos de la actuación del Estado. (Ariely 2008, xx, 47,48, 232)

También penetramos con fuerza en la cuestión de la posibilidad de que millones de individuos y empresas que se relacionan en el mercado consiguen llegar a resultados coherentes. La respuesta clásica es que esto se consigue por medio de la mano invisible con las variables pasando por encima y por debajo de centros de gravedad dinámicos. Se trata tanto del reflejo como de los medios de la “articulación forzosa” de los agentes individuales en un patrón social que puede o no ser deseable bajo otros aspectos.

Keynes reconoce este punto cuando habla del regateo del mercado y de la posibilidad del paro persistente. (Dutt, 1991-92, 210n215) Es Walras quien hizo desvanecerse toda la turbulencia y tumulto vinculado a los procesos reales, reemplazándola por un concepto idealizado de articulación social óptima e inmediata (es decir, el equilibrio general). La economía ortodoxa no ha dejado de tratar justificar esta idealización. Y gran parte de la economía heterodoxa también ha venido a aceptarla como punto de partida, tendiendo por tanto a presentar el mundo real (más que la teoría en si misma) como si estuviera lleno de “imperfecciones”. Este apaño bipolar puede hacer que ambos bandos estén cómodos, pero no aporta un marco analítico adecuado para el estudio del capitalismo. Tal vez la mayor ventaja que pueda derivarse del abandono de la doctrina de la racionalidad extrema es que conseguimos explicar mejor de forma general los fenómenos empíricos en la teoría de la producción y el consumo. Como esos fenómenos suelen abordarse desde el enfoque del comportamiento extremadamente racional, la existencia de esos patrones suele tomarse como validación de este punto de partida particular.

Pero ya hemos podido apreciar que comportamientos individuales muy diferentes pueden abrir paso a los mismos patrones agregados ya que los factores determinantes son estructurales, no personales. Resulta un hecho ineludible que los patrones conjuntos (de grupo, de mercado y nacionales) poseen propiedades emergentes que son bastante distintas de los resultados individuales. Las motivaciones y las expectativas de los individuos siguen siendo relevantes a nivel microscópico y en la interpretación social de los resultados (ya que la gente puede no estar muy satisfecha con un acontecimiento concreto). Pero salvo en el quimérico supuesto de que todos los individuos fueran iguales o marcharan por casualidad codo con codo, el conjunto poseerá características propias. Por consiguiente, si bien siempre podemos caracterizar el todo por medio de un “agente promedio” esta media no cumplirá generalmente con los rasgos característicos de un agente representativo. Ciertamente, como la voluntad será por lo general “rigurosamente insensible” a los comportamientos individuales, no podemos emplear cualquier correspondencia empírica concreta como un respaldo general de otros rasgos, incluidos los supuestos, de algún modelo particular de comportamiento individual. El mimetismo no es necesariamente una explicación. Una implicación adicional es que a falta de información adicional uno puede abordar únicamente las implicaciones de política económica que se basen en una correspondencia empírica demostrada, pero no aquellas que se basen en supuestos inválidos o no demostrados sobre los procesos subyacentes.

Por consiguiente, incluso si dos teorías están en lo cierto a la hora de (pongamos) predecir los efectos en la producción de un déficit presupuestario, no pueden derivarse conclusiones sociales ulteriores sin analizar otras implicaciones de los dos enfoques.

Esos problemas han permeado la profesión económica durante algún tiempo. Por consiguiente es útil saber distinguir entre la cuestión general de la forma en la que uno enfoca el comportamiento humano y la forma particular con la que uno lo enfoca en la ciencia económica. Aquí son relevantes cuatro ámbitos: (1) la teoría del comportamiento; (2) la teoría evolutiva; (3) La teoría de computación basada en los agentes (ACE); y (4) enfoques estocásticos.
La teoría del comportamiento abarca una amplia diversidad de disciplinas como la psicología, la sociología, la antropología y la neurobiología. La biología, la cultura, las investigaciones del cerebro y las trayectorias de la vida individual desempeñan todas ellas un papel crucial en el complejo baile del comportamiento humano. La economía del comportamiento, por su parte, tiene el limitado cometido de tener que acomodar parte del conocimiento derivado de la teoría del comportamiento en el seno del marco analítico de la teoría económica convencional.

La economía del comportamiento sigue siendo una disciplina que se organiza en torno a los fracasos de la economía convencional. La contribución típica comienza con una demostración de lo erróneo de tal o cual supuesto económico (normalmente en un experimento) y pasa a ofrecer una explicación psicológica de tal fracaso. Tal relación simbiótica con la economía convencional funciona bien siempre que se hagan pequeños cambios en los supuestos convencionales:
“En ese caso esas pruebas de comportamiento pueden ofrecer el ímpetu para que se lleven a cabo pequeños cambios en los modelos convencionales que dejen incólume la estructura básica de la teoría general”. (Pesendorfer 2006, 720)
“La teoría de juegos basada en el comportamiento constituye a su vez un subconjunto de la economía del comportamiento, siendo su principal fin incorporar elementos y compresión psicológica […] a la teoría formal de juegos”. (Camerer, 1997, resumen)

En un nivel general la economía evolutiva posee una relación algo mejor con la teoría evolutiva.

“A un nivel general, su foco se ha centrado en la forma en la que la economía puede aprender del debate micro-macro en biología. Hace hincapié en que el todo puede tener rasgos que difieren de los elementos individuales, de forma que es inútil fiar en la idea de que puede existir tal cosa como un agente representativo. Apunta que la economía neoclásica convencional descansa fundamentalmente en la tosca metáfora de “la supervivencia del más apto” de Herbert Spencer, en su interpretación de Darwin, que suele aplicarse más a menudo a la teoría de la empresa por una larga serie de economistas como Alchian, Enke Friedman, Hirschleifer, y Tullock con el fin de justificar “la superioridad de los resultados del mercado”. Por otro lado, el recurso a las metáforas evolutivas no ha llevado a ninguna parte más allá de admoniciones generales de que la economía tiene que ser más realista y tiene que contemplar las interacciones entre agentes diversos, cambiando las composiciones de las poblaciones y técnicas, “el aprendizaje y la adaptación sostenida”, la evolución de las estructuras sociales y el cambio “cualitativo, estructural e irreversible (van den Bergh y 2003, 66–68, 76–77).

Pero cuando de la teoría de juegos evolutiva se trata, aún se impone la racionalidad compensatoria, siendo su fin retener “el núcleo […] de la teoría del comportamiento racional”, reemplazando “las tradicionales grandes exigencias de racionalidad” con “supuestos más débiles y apropiados de racionalidad […] en los que agentes racionales constreñidos obran con el fin de maximizar, de la mejor forma que entiendan, su propio interés”. Al igual que ocurre con la teoría de juegos del comportamiento, “casi todos los resultados pueden generarse por medio de un modelo ajustando de forma correcta la dinámica y las condiciones iniciales”. (Alexander 2009, 7–8, 18).

Resulta aquí de especial importancia la amalgama equivocada de la teoría del proceso evolutivo con la racionalidad que rinde resultados. La lógica darwiniana de las interacciones entre entidades biológicas individuales y diversos criterios de adecuación impuestos exteriormente por el entorno (el mismo influido parcialmente por la población biológica) no exige que los organismos individuales calculen, y ya no digamos que actúen como individuos extremadamente racionales. El cálculo es uno de los elementos definitorios en la escalera evolutiva de modo que los humanos tienen muy buenas notas en esta escala. Pero como el resto de animales, heredamos otros mecanismos de respuesta que no sólo influyen en nuestros cálculos sino que a veces pueden echarlos completamente a un lado. La retroalimentación evolutiva es científicamente más interesante que el cálculo del comportamiento racional, constreñido o no.

ACE aporta un tercer y crecientemente popular modo de análisis que contempla investigar una amplia variedad de interacciones entre agentes generados por ordenador. Se supone que los agentes pueden seguir virtualmente cualquier conjunto de reglas de comportamiento. Aquí no se exige ni la racionalidad extrema ni la constreñida: sólo tienes que fijar ciertas reglas y ciertas estructuras, encender el programa, y ver lo que pasa. El problema por supuesto es que muchos conjuntos de reglas de comportamiento pueden dar lugar a los mismos resultados, mientras que pequeños cambios en las reglas pueden dar lugar a grandes cambios en los resultados. Como ocurre con la teoría evolutiva y de juegos, se puede dar un mimetismo de prácticamente todos los resultados cuando se emplea un conjunto adecuado de supuestos y ajustes. Por consiguiente, incluso los defensores más destacados admiten que, al menos en el presente estado de la disciplina, los modelos ACE tienden a ser “ad hoc”. (Epstein 2007, 54, 64–65).

En tal sentido, se observará que los modelos ACE empleados en este capítulo sólo se utilizaron para ilustrar la cuestión general de que muchos supuestos diferentes de comportamiento, que van de los neoclásicos convencionales a otros que de convencionales no tienen nada, pueden dar los mismos resultados conjuntos. Estos resultados conjuntos se derivaron a su vez analíticamente de las interacciones de estructuras configuradoras como las restricciones presupuestarias y las influencias sociales con distribuciones de ingresos estocásticamente estables.

Esto nos hace llegar al último modo de análisis, que es el análisis estocástico de los resultados económicos. Este enfoque se originó en la ciencia económica y ha regresado ahora tras un largo interludio. Fue el economista Vilfredo Pareto quien descubrió en 1897 que la distribución de ingresos del 1% superior seguía una sencilla ley de potencia (ver el Capítulo 17 sobre Piketty). Pareto fue después nombrado Catedrático de Economía, ocupando el puesto de Leon Walras. El economista Robert Gibrat sostuvo en 1931 que los ingresos del 99% restante de la población seguían una distribución de probabilidad logarítmica corriente (Pennicott 2002). Pero si bien el enfoque estocástico llegó a ser bastante influyente en física, desapareció prácticamente de la economía hasta los 90, cuando la Econofísica volvió a presentarse en el escenario. Por ejemplo, Yakovenko et al. (Dragulescu y Yakovenko 2001; 2002, 1–2; Silva y Yakovenko 2004, 6; Yakovenko 2007) han argumentado que la distribución global de ingresos supone la unión de dos funciones de distribución de probabilidad distintivas, y la curva exponencial se aplica al primer 97%–99% de la población de los individuos que reciben ingresos y la ley de Pareto o alguna otra ley de potencia es aplicable al 1%–3% superior.

El fundamento teórico para esta “estructura de distribución de ingresos de dos clases”, es una aproximación cinética en la que los ingresos procedentes de los salarios rinden difusión aditiva mientras que los ingresos de las inversiones y del capital rinden difusión multiplicativa. Las dos leyes son distintas ya que son distintos los dos tipos de ingresos.
Puede demostrarse que cada ley, a su vez, surge de una diversidad de comportamientos individuales (es decir, es “rigurosamente insensible” frente a tales detalles. Como ha recalcado Yakovenko (2007, 2) este enfoque puede tenerse como “una rama de la teoría probabilística […[ que se aplica para estudiar propiedades estadísticas de sistemas económicos complejos conformados por un gran número de seres humanos”. Tenemos que añadir constantemente a lo anterior que las propiedades estadísticas conjuntas se dan únicamente en la medida que la gente obre de forma corriente: cuando les da por hacer huelga, amotinarse o rebelarse frente al poder, las cosas pueden ser muy distintas.

Lo anterior nos habla de la relación existente entre el comportamiento individual y los resultados conjuntos. Una segunda cuestión tiene que ver con la diversidad de estructuras configuradoras que yacen entre estos dos polos. Hemos visto que las restricciones presupuestarias desempeñan un fundamental papel tanto en los patrones de producción como de consumo. Pero el proceso de arbitraje es una estructura configuradora todavía más importante. En el seno de la economía neoclásica se supone que cada consumidor y cada empresa tienen que afrontar un precio uniforme para cualquier mercancía, que se toma como dado cuando efectúan sus cálculos de maximización de utilidad. Pero el supuesto de un precio uniforme exige dos supuestos adicionales: que los compradores, consumidores y las empresas acuden a los productores a menos costo de un bien dado; y que, en tanto que vendedoras, las empresas ajustan sus precios para atraer clientes. Por consiguiente, mientras que las empresas y los consumidores se supone que son maximizadores pasivos en un ámbito, se asume de forma implícita que en otro ámbito son agentes activos buscadores y fijadores de precios, actuando a espaldas propias, por así decir.

Esta contradicción queda encubierta en la metáfora Walrasiana acudiendo al expediente de un subastador que sencillamente anuncia un precio simple para cada producto, y se encubre en la teoría de la competencia perfecta sosteniendo que el conocimiento perfecto implica un único precio. Debe observarse que un resultado similar se da para las tasas salariales de cualquier tipo de trabajo dado, cuyo precio (como el de cualquier otro producto) se supone que se iguala a la perfección incluso en el corto plazo.

“No hay procesos en estos casos. La ley de un precio único se embute fundamentalmente en la teoría de la competencia perfecta (Mirowski 1989, 236) ya que “la teoría tradicional de la competencia perfecta […] no aporta una explicación coherente de la formación de los precios”. (Roberts, 1987, 838)

La teoría de la competencia perfecta supone igualmente que todas las empresas de una rama industrial son exactamente iguales, de modo que un precio de venta uniforme de cada producto implica una tasa de ganancia uniforme para cada empresa, incluso a corto plazo. Pero como la tasa de ganancia a corto plazo puede ser diferente entre las ramas industriales, se supone que a largo plazo la movilidad del capital habrá hecho bajar las tasas de ganancia más alta y hecho subir las tasas de ganancia más bajas hasta que todas se igualen. Tanto los resultados de corto como de largo plazo aluden a un equilibrio como “un estado conseguido”.

Los supuestos a corto plazo consiguen asegurar el resultado de que las tasas de ganancia sean equivalentes en todas las empresas que se hallen en el interior de una rama industrial dada, y los supuestos a largo plazo consiguen asegurar el resultado de que las tasas de ganancia son equivalentes en todas las ramas industriales. Por consiguiente, en el equilibrio a largo plazo de la competencia perfecta, cualquier empresa, da igual dónde esté ubicada, poseerá exactamente la misma tasa de ganancia que cualquier otra empresa. (Mueller 1990, 4).

Se sigue que cualquier diferencia entre las tasas salariales, los precios de los productos y las tasas de ganancia de las empresas individuales es una presunta prueba de la “imperfección” del mundo real. Las teorías de la competencia “imperfecta”, que están indisolublemente anudadas a la idea de la competencia imperfecta, proceden a partir de esta cuestión. La teoría de Kalecki de la formación de precios que ya fue anteriormente analizada en la Sección IV del presente capítulo es un clásico que ilustra esa cuestión: los precios del mismo producto son diferentes entre las empresas dentro de una rama industrial según el grado de poder de monopolio de cada empresa, en tanto que los márgenes de ganancia y las tasas de ganancia son diferentes a lo largo de cada rama industrial según diversos grados de poder monopolístico de la rama industrial. (Kalecki 1968, 11–20).

La teoría de la competencia real desarrollada en esta obra es muy diferente en su elaboración a la teoría de la competencia perfecta (capítulo 7) Se supone que las empresas fijan precios de ensayo y error. La competencia entre empresas acaba aglutinando los precios ofrecidos para cualquier producto dado. Las empresas con precios superiores a la media tienden a perder cuota de mercado y las que tienen precios más bajos que la media ganan cuotas de mercado todo lo demás igual (por ejemplo constes de transporte y otros). Las empresas ajustan sus precios en función de tales procesos de retroalimentación. Lo que surge es una distribución forzada de los precios de venta en torno a algún precio medio en constante dinamismo. Esto es la ley competitiva de precio más o menos único. Esa igualación a grandes rasgos de los precios de venta en el seno de cualquier industria dada implica una distribución correspondiente de las tasas de ganancia dentro de cada rama industrial que no dependen únicamente de la distribución de los precios de venta sino también de las variaciones en las condiciones de producción entre las empresas dentro de cada rama industrial. En relación con éstos últimos, algún subconjunto concreto representará las mejores condiciones de producción generalmente reproducibles (reguladoras).

Serán las tasas de ganancia de estas condiciones reguladoras las que preocuparán a las nuevas inversiones en cualquier rama industrial dada. Las industrias con tasas de ganancia reguladoras que sean superiores a la tasa reguladora nacional experimentarán flujos de capital acelerados que harán crecer su oferta en relación con su demanda y por consiguiente reducirán sus precios y tasas de ganancia. Se dará el proceso opuesto en industrias con tasas reguladoras inferiores a la media nacional. Como la demanda, la oferta e incluso los métodos de producción están en perpetuo cambio, el resultado final es una oscilación forzada de las tasas de retorno reguladoras en torno al promedio nacional. Esta es la ley competitiva de prácticamente una ganancia.

Tanto la competencia perfecta como la real suponen el arbitraje como estructura configuradora fundamental. Pero mientras que la competición perfecta contempla igualdades exactas en ciertos estados alcanzados de equilibrio, la competencia real contempla diferencias siempre presentes en un proceso turbulento de fluctuaciones en torno a centros dinámicos de gravedad.

La armonía que trae consigo el arbitraje, como la de la restricción presupuestaria, no debe entenderse que significa que es igual en cuanto a la forma y contenido de este proceso en las dos teorías. La relevancia de estas cuestiones para la Escuela Austriaca de Economía se analiza en el capítulo 8.

La cuestión final atañe a otra frontera entre la ortodoxia Walrasiana presente y sus impugnadores. El enfoque Walrasiano insiste en que el consumidor y la empresa sean tratados de forma perfectamente simétrica. Tanto los principios rectores (maximización) como las propias herramientas (isolíneas y restricciones presupuestarias) son formalmente idénticos en ambos casos. La tradición postkeynesiana trata de forma característica la macroeconomía como una lucha asimétrica por el poder entre consumidores y empresas, teniendo éstas últimas un rasgo como el poder oligopólico que no poseen los primeros. Los economistas clásicos plantean un argumento aún más convincente: el capital es la fuerza dominante y la ganancia la verdadera piedra angular del propio capitalismo. Esto les lleva a analizar la producción, al producto excedente como fundamento objetivo de la ganancia, y a la competencia como el medio por el que la ganancia regula el intercambio (capítulo 7) Es importante observar que la ganancia es una medida potencialmente objetiva , sometida a un escrutinio constante por parte de los gerentes de la empresa, la bolsa, los bancos y el público en general.

La ganancia es una condición de supervivencia de las empresas. (Simon 1979, 502). Las empresas están condenadas a la extinción si incurren en pérdidas persistentes, y pueden verse amenazadas incluso si consiguen beneficios inferiores a los de sus competidores. De ahí la constante presión por reducir costes como para mejorar las probabilidades de supervivencia. A su vez, esos imperativos individuales dan lugar a una serie de mecanismos ordenadores como la tendencia a la igualación de precios en relación con un bien común y la tendencia a la igualación de la tasa de ganancia entre industrias. La competición es una guerra entre empresas, y es ese, la obligada racionalidad propia de la guerra, su principio rector objetivo. (Shaikh 1978, 7). Los consumidores individuales no se enfrentan a ese proceso objetivo de filtrado. Por supuesto están sometidos a influencias sociales que conforman los “macrofundamentos” de su comportamiento económico (Colander 1996; Leijonhufvud 1996, 42; Hahn 2003,227). Pero dentro de esos confines pueden operar por hábito, tradición o incluso por capricho. Su dominio es el de lo social subjetivo. Por lo tanto, en un enfoque clásico, existe una enorme asimetría entre el tratamiento de las empresas y el de los consumidores.

_________________
Frígilis despreciaba la opinión de sus paisanos y compadecía su pobreza de espíritu. «La humanidad era mala pero no tenía la culpa ella. El oidium consumía la uva, el pintón dañaba el maíz, las patatas tenían su peste, vacas y cerdos la suya; el vetustense tenía la envidia, su oidium, la ignorancia su pintón, ¿qué culpa tenía él?». Frígilis disculpaba todos los extravíos, perdonaba todos los pecados, huía del contagio y procuraba librar de él a los pocos a quien quería


Arriba
 Perfil Email  
 
Mostrar mensajes previos:  Ordenar por  
 [ 28 mensajes ]  Ir a página Previo  1, 2

Todos los horarios son UTC + 1 hora [ DST ]


¿Quién está conectado?

Usuarios navegando por este Foro: CommonCrawl [Bot] y 0 invitados


No puede abrir nuevos temas en este Foro
No puede responder a temas en este Foro
No puede editar sus mensajes en este Foro
No puede borrar sus mensajes en este Foro
No puede enviar adjuntos en este Foro

Saltar a:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Traducción al español por Huan Manwe