REMOCIÓN DE SÍLICE, EN AGUA, MEDIANTE ELECTROGENERACIÓN DE ALUMINIO.

 

 

SILICA REMOVAL IN WATER BY ALUMINUM ELECTROGENERATION.

Alejandro Gutiérrez [1]*, Sílvia L. Gélover Santiago2, Alejandra Martín Domínguez2

1 Universidad Autónoma Metropolitana campus Iztapalapa.2 Instituto Mexicano de Tecnología del Agua, IMTA.

RESUMEN.

Se presentan los resultados del estudio de la generación por electrólisis de aluminio, como agente coagulante, para remoción de sílice en agua para reposición (make-up) en torres de enfriamiento. Se probaron tres sistemas electroquímicos, dos de ellos con electrodos de aluminio (con y sin cambio de polaridad) y un tercer sistema con ánodos de aluminio y cátodos de acero inoxidable. De los resultados obtenidos se ha concluido que, a las condiciones estudiadas, el sistema que ofrece más ventajas para la producción de aluminio y remoción de sílice es aquel en que ambos electrodos son de aluminio y trabajan con corriente directa ya que, gracias a la producción química de aluminio en el cátodo, las concentraciones de aluminio en agua a la salida del reactor son muy superiores a las calculadas por aplicación de la ecuación de Faraday. Bajo las condiciones probadas se logró remover hasta un 66% de sílice de agua de pozo conteniendo del orden de 50 mgL-1.

Palabras clave: Generación de aluminio, electrólisis, agentes coagulantes, remoción sílice.

ABSTRACT.

The Study results generation by electrolysis of aluminum, as coagulant for silica removal for replacement water (make-up) in cooling towers are presented. Three electrochemical systems, two of them with aluminum electrodes (with and without change of polarity) and a third system with aluminum anodes and stainless steel cathodes were tested. From the results it was concluded that the conditions studied, the system offers more advantages for the production of aluminum and removal of silica is one in which both electrodes are made of aluminum and work with direct current because, thanks to the chemical production aluminum at the cathode, aluminum concentrations in water at the reactor outlet are much higher than those calculated by applying equation Faraday. Under the conditions tested were able to remove up to 66% silica containing well water of about 50 mg L-1.

 

Keywords: Generation aluminum, electrolysis, coagulating agents, silica removal.

INTRODUCCIÓN.

La presencia de sílice en el agua utilizada en sistemas de enfriamiento, representa un riesgo importante de incrustaciones, especialmente en regiones de suelos volcánicos como México, en donde las concentraciones en agua proveniente de pozos pueden tener valores relativamente altos, como 50 u 80 mgL-1. A fin de evitar incrustaciones, el agua circulante es constantemente sustituida, lo que implica altos consumos en agua de repuesto con bajo contenido de incrustantes. Si el agua disponible no es buena, debe ser tratada, lo que permite incrementar los ciclos de concentración, o recircular el agua un mayor número de veces antes de purgarla a causa del incremento en el contenido de sales disueltas y sílice.

De acuerdo a la literatura, los iones de aluminio, Al3+, precipitan sílice soluble en el intervalo de 5<pH<11 pero se requieren al menos cuatro partes de aluminio por cada parte de sílice. Los iones aluminio pueden añadirse al agua en forma de un coagulante químico como el sulfato o policloruro de aluminio, ambos utilizados comúnmente en el tratamiento de agua (Iler 1979). Sin embargo, al adicionar estas sales, se incrementa la concentración del anión en el agua tratada, lo que resulta indeseable para las torres de enfriamiento, ya que estas especies son corrosivas (cloruros) o incrustantes (sulfatos). Por lo que surge la propuesta de, mediante electrocoagulación, producir iones aluminio, con la ventaja de que de esta manera no se incrementan los sólidos disueltos en el agua tratada.

La electrocoagulación con electrodos de aluminio ha sido utilizada para retirar gran variedad de contaminantes del agua (Holt y col., 2005) y en el IMTA, esta metodología está siendo evaluada como una opción para remover sílice de agua para torres de enfriamiento. Por lo anterior, se estudia la manera de producir electroquímicamente aluminio, que remueva eficientemente sílice y, al mismo tiempo, minimice el consumo energético asociado.

Una de las principales causas que se ha identificado como limitante del uso de la electrocoagulación para la remoción de sílice es la pasivación de los electrodos. Foley y Nguyen (Foley y Nguyen, 1982), realizaron estudios del aluminio metálico en disoluciones que contienen cloruros, rápidamente se ioniza para generar iones Al3+, que son hidrolizados. El cloruro reacciona con el aluminio hidrolizado para formar un cloruro de aluminio básico relativamente estable que se trasforma lentamente a Al(OH)3 y finalmente a Al2O3·H2O, compuesto que juega un papel muy importante en la pasivación de aluminio.

En ensayos preliminares, no presentados en este trabajo, se observó que la producción de aluminio rebasa los valores calculados, al usar la ecuación de Faraday, para la producción anódica de aluminio, hasta en más del 200 %. De acuerdo con lo reportado por Robinson, Mouedhena y colaboradores (Robinson, 2004; Mouedhena y col., 2008) esto se debe al ataque, por el agua y los hidroxilos (OH) producidos por el aluminio en el cátodo, que se haya susceptible al haber perdido la capa protectora de óxido que le caracteriza, como consecuencia del fuerte incremento local en el pH generado a la par de la formación de hidrógeno en la reacción catódica. El aluminio producido en el cátodo es muy susceptible de formar depósitos sobre el electrodo (Robinson, 2004), causando pasivación, lo que se traduce en obstrucción física sobre el electrodo y un mayor consumo energético, así como necesidad de lavado de los electrodos para limpiarlos de depósitos con el consecuente consumo de tiempo, energía y reactivos.

En la revisión de la literatura sobre el tema, se encontraron dos estrategias para tratar de minimizar la formación de precipitados pasivantes de los electrodos, una de ellas consiste en la introducción de cambios en la polaridad de la corriente aplicada al sistema (Mao y col., 2008), la otra, consiste en la sustitución de los cátodos de aluminio por cátodos de acero inoxidable (Robinson, 2004).

En este trabajo se presentan los resultados obtenidos al estudiar ambas estrategias, durante ensayos realizados con la finalidad de remover sílice del agua.

MATERIALES Y MÉTODOS.

Descripción del sistema de electrocoagulación.

Las pruebas se realizaron en un reactor rectangular de acrílico que trabaja a flujo pistón (Martín-Domínguez y col., 2008), en donde los electrodos funcionan como pantallas deflectoras (Figura 1).

Esta configuración disminuye los problemas de zonas muertas y cortos circuitos hidráulicos. Por otro lado, cada canal funciona como una celda independiente y, a medida que el flujo va pasando por el reactor, va aumentando su concentración en Al3+ conforme avanza hacia la salida. El reactor posee 30 pares de electrodos, 30 electrodos fungen como ánodos y los otros 30 como cátodos.

Las dimensiones de cada electrodo son 8 x 4 x 0.5 cm., y el espaciamiento entre electrodos fue de 0.6 cm., el reactor se conectó a un manómetro de mercurio para medir la pérdida de carga en el reactor a través de la diferencia de altura (ΔH) en la columna de mercurio, ésta permitió calcular los gradientes de mezclado (G s-1) en el interior del reactor.

Figura1

Figura 1. Vista de perfil y planta del reactor utilizado para la producción de aluminio, a) distancia entre electrodos 0.6 cm., b) distancia entre el extremo del electrodo y la pared del reactor, 0.5 cm., be) largo del electrodo (8cm.) y h) alto del electrodo (4cm.).

El reactor de electrocoagulación (EC) trabajó en línea con un sistema complementario de tratamiento que consta de un floculador y un sedimentador de acrílico (Figura 2). Hacia estas unidades de tratamiento, se derivó 1 L min-1 del efluente del reactor, el caudal se midió con un rotámetro a la entrada del floculador. Estas lecturas fueron verificadas con probeta y cronómetro en mano a la salida del sedimentador. El floculador es de agitación mecánica y consiste de tres cámaras comunicadas entre sí. Cada cámara es de 0.20 x 0.20 x 0.30 (largo x ancho x altura) y posee un agitador en forma de paleta de 20 cm. de alto. El sedimentador cuenta con 35 placas de acrílico en diagonal.

Figura2

Figura 2. Aspecto de las unidades de floculación y sedimentación. Los gradientes en las cámaras de floculación fueron: 80, 60 y 40 s-1

Las condiciones experimentales fueron seleccionadas con la finalidad de determinar la eficiencia en la producción de aluminio y determinar su relación con la remoción de sílice presente en agua. Se trató de encontrar las diferencias para dos casos teniendo como referencia un tercer sistema cuya eficiencia se determinó con anterioridad (Villegas, 2009). En cada caso, se calculó teóricamente, de acuerdo a la Ley de Faraday, y considerando el margen de sobreproducción de aluminio previamente observado, la corriente requerida para generar una concentración de aluminio suficiente para la formación de flocs de hidróxido de aluminio, la cual previamente se ha determinado para el mismo reactor y que es de, aproximadamente, 36 mgL-1. La formación de flocs es un requisito para que haya remoción de sílice, por lo que además se consideró en cada caso, el caudal de agua tratado, para alcanzar la concentración de aluminio formadora de flocs. Para las pruebas se empleó agua de pozo de 48 ± 2 mgL-1 de sílice y 250 µScm-1 de conductividad, sin embargo para realizar los experimentos la conductividad se incrementó a aproximadamente 1100 µScm-1 con NaCl (1053 ±103 µScm-1), para disminuir la resistencia de la disolución. El equipo utilizado para abastecer de energía al reactor fue una fuente de poder Sorensen modelo DLM 40-15 con control de 0-40 V y 0-15 A.

En todos los experimentos, la pérdida de carga, el voltaje, y el gasto de operación, se monitorearon a los 15 min de haber iniciado la prueba, posteriormente a los 30 minutos y después cada hora hasta las 5 hrs de operación. Se monitoreó la eficiencia electroquímica del reactor midiendo el aluminio producido a la salida éste por el método Aluver en un espectrofotómetro Hach DR 2010, cada hora a partir de la 2da h de tratamiento. También se determinó aluminio y sílice a la salida del sedimentador, a las 3, 4 y 5h de tratamiento, con lo que fue posible calcular la relación aluminio producido/sílice removida (Alp/SiO2r). La concentración de sílice se midió mediante el método del Molibdato con reactivos y equipo Hach.

Para la cuantificación de Sílice y Aluminio se consideraron los siguientes tiempos de reacción: 2, 3, 4 y 5 horas. Cada experimento se realizó por triplicado, obteniéndose 12 valores para cada valoración.

Condiciones de reacción

El objetivo de variar las condiciones ha sido determinar si es posible mejorar la remoción de sílice, previamente evaluada para el sistema tomado como referencia, ya sea por aplicación de cambio en la polaridad de los electrodos de aluminio o por cambio de los cátodos de aluminio a acero inoxidable. En cualquier caso se busca el sistema que optimice la remoción de sílice, minimice la pasivación de los electrodos y tenga el menor costo. Así mismo se buscó determinar si todo el aluminio producido, en aquellos casos en que se produce en exceso del esperado por aplicación de la ecuación de Faraday, es eficiente en la remoción de sílice.

Se analizaron dos casos. En el primero se realizó la comparación entre un sistema con electrodos de aluminio bajo corriente directa (Al-Al-CD) (Mouedhena y col., 2008), que se tomó como referencia o punto de comparación, y uno igual al descrito excepto por el hecho de que se aplicó corriente pulsada o con cambio de polaridad cada 15 min (Al-Al-CP). En el segundo se ha comparado el sistema tomado como referencia (Al-Al-CD), con un sistema en el que sólo los ánodos son de aluminio, ya que los cátodos han sido cambiados a electrodos de acero inoxidable-316 y se ha trabajado sólo bajo corriente directa (Al-Ac.Inox-CD). El tiempo de operación del reactor fue de 5 hrs en todos los casos. Y cada una de las tres condiciones probadas fue realizada por triplicado en días diferentes.

  1. a) Al-Al-CP vs. Al-Al-CD.

Para realizar la comparación entre los sistemas con electrodos de aluminio, se tomó como parámetro de referencia la densidad de corriente, que fue de 0.0048 Acm-2 En el sistema Al-Al-CP, la polaridad se invirtió cada 15 min, con lo que los electrodos que inicialmente actuaban como ánodos pasaban a funcionar como cátodos y viceversa. Durante el lapso en que ocurría la inversión de polaridad ambos cátodos dejaban de recibir energía eléctrica por algunas décimas de segundo.

  1. b) Al-Ac. Inox-CD vs. Al-Al-CD.

En este caso, el parámetro que se seleccionó para comparar ambos sistemas fue la concentración de aluminio a la salida del reactor.

  1. a) Al-Al-CP vs. Al-Al-CD.

En ambos sistemas se aplicó una densidad de corriente de 0.0048 Acm-2, el potencial inicialmente aplicado fue de 6.1 V, mismo que decreció en promedio 0.33 V, después de cinco horas de operación continua. El incremento en el potencial se asocia a la pasivación de los electrodos. En ninguno de los casos, se observó pasivación, ya que en vez de incremento en el potencial se observó una ligera disminución. Esta observación e congruente con lo observado previamente para el sistema, ya que en un estudio previo (Martín-Domínguez y col., 2008), se obtuvo evidencia de que el trabajar a bajas densidades de corriente se minimiza la pasivación de los electrodos.

Al trabajar con el mismo flujo en ambos sistemas, la concentración de aluminio producida por litro de agua a tratar sería la misma. Esta concentración objetivo fue de 35 mgL-1, aunque en algunos casos se rebasó, tal como se puede observar en la Tabla 1 que resume los valores para las diferentes pruebas.

Tabla 1 Condiciones de operación y resultados obtenidos para los sistemas Al-Al-CP, Al-Al-CD y Al-Ac. Inox-CD.

Tabla 1

Tabla 1. * Valores de aluminio esperados, considerando la ecuación de Faraday y un porcentaje de sobreproducción previamente observado.

CONCLUSIÓN.

De los sistemas estudiados y bajo las condiciones seleccionadas, el sistema con electrodos de aluminio y aplicación de corriente directa no mostró diferencias significativas con los sistemas alternos probados a fin de optimizar la remoción de sílice y el consumo energético asociado.

La eficiencia en la producción de aluminio para los sistemas Al-Al se atribuye a la producción química de aluminio en el cátodo.

La remoción de sílice obtenida con 35 mg L-1 de aluminio (Al-Al-CD) resultó estadísticamente indistinguible de la obtenida con los otros sistemas. Se observó que un incremento en el aluminio producido de casi 20% (42 mgL-1 de aluminio en el sistema Al-Ac.Inox-CD) no logró mejorar los porcentajes de remoción de sílice. Esto indica que no necesariamente una mayor producción de aluminio implica una mayor remoción de sílice.

De hecho lo que se pudo observar es que, para las condiciones probadas, aproximadamente 35 mg L-1 son suficientes para remover hasta 66% de la sílice presente. En cuanto a la relación Alp/SiO2r., tampoco hubo diferencias significativas.

 

Los resultados de remoción de sílice para los sistemas alternos probados no fueron significativamente diferentes de los del sistema tomado como referencia, por lo que no se justifica, hasta este momento y con las condiciones probadas, el uso ni de corriente pulsada ni de cátodos de acero inoxidable.

REFERENCIAS.

  1. Martín-Domínguez, Ma. L Rivera, M. Piña, S. Pérez. (2008). Interciencia, 33 [7], 496.
  2. Mouedhena, M. Feki, M. De Petris Wery, H.F. Ayedi. (2008). Journal of Hazardous Materials, 150, 124.
  3. R. Iler. (1979). The Chemistry of Silica. Solubility, Polymerization, Colloid and Surface Properties, and Biochemistry. John Wiley & Sons, USA.
  4. K. Holt, G. W. Barton, C. A. Mitchell. (2005). Chemosphere, 59, 355.
  5. T. Foley y I.H Nguyen. (1982). J. Electrochem. Soc., 192, 129.
  6. N. E Robinson. (2004). Patent No. US 6,800,206 B2. Date of Patent Oct. 5, 2004. Electrolysis based water treatment.
  7. Villegas M. I. E. (2009). Remoción de sílice en agua para uso en torres de enfriamiento mediante un método electroquímico. Tesis de licenciatura. UAEM.
  8. Mao, S. Hong, H. Zhu, H. Lin, L. Wei, F. Gan. (2008). Journal of Wuhan University of Technology-Mater. Sci. Ed.

Alejandro Gutiérrez [1]*, Sílvia L. Gélover Santiago2, Alejandra Martín Domínguez2

1 Universidad Autónoma Metropolitana campus Iztapalapa.2 Instituto Mexicano de Tecnología del Agua, IMTA.

[1] * Autor para la correspondencia: Alejandro Gutiérrez

  E-mail: alex_gutierrez873@hotmail.com

 

CONTROL DE PLAGAS AGRÍCOLAS CON HONGOS ENTOMOPATÓGENOS

 

 

AGRICULTURAL PEST CONTROL WITH ENTOMOPATHOGENIC FUNGI

Yolanda Escamilla-Lozano, María José Serrano-Maldonado, Alejandro Angel-Cuapio

Tecnologico de Estudios Superiores del Oriente del Estado de México. División de Ingeniería Ambiental, Paraje de San Isidro S/N, Barrio de Tecamachalco, 56400, Los Reyes Acaquilpan, Estado de México.

Universidad Autónoma Metropolitana-Unidad Iztapalapa. Departamento de Biotecnología. San Rafael Atlixco 186, Vicentina, 09340, Iztapalapa, Ciudad de México.

 

RESUMEN.

 

La aplicación controlada de agentes de control biológico tales como: bacterias, hongos, virus, nematodos y protozoarios, implica el mejoramiento de los cultivos, al proteger las plantas del deterioro producido por insectos plaga. En la naturaleza, los hongos entomopatógenos (entomon: insecto, pathos: enfermedad, gennan: engendrar) pueden eliminar o controlar las plagas y constituyen, además el grupo de mayor importancia del control biológico, algunos géneros más importantes están: Metarhizium, Beauveria, Isaria y Lecanicillium. Los conidios son las unidades infectivas más importantes en los hongos entomopatógenos y una técnica para su producción es el cultivo en soporte sólido. Recientemente los hongos entomopatógenos han cobrado interés por la posibilidad de producirlos masivamente y de formularlos en preparados estables que permiten su almacenamiento por largo tiempo, preservando su viabilidad e infectividad. Además, brindan la oportunidad de comercializarlos como micoinsecticidas y con ello disminuir el uso de plaguicidas químicos, los cuales perjudican negativamente el medio ambiente. En virtud de este hecho, se justifica el interés por los estudios que buscan encontrar medios de cultivo o sustratos eficientes para su multiplicación en gran escala.

Palabras clave: Hongos entomopatógenos, Producción de Conidios, Control de Plagas.

 

ABSTRACT.

 

The controlled application of biological control agents such as: bacteria, fungi, viruses, nematodes and protozoa, involves the improvement of crops, to protect plants from damage caused by insect pests. In nature, entomopathogenic fungi (entomon: insect, pathos: illness, gennan: breed) can eliminate or control pests and are also the most important group of biological control, some more important genera are: Metarhizium, Beauveria, Isaria and Lecanicillium. Conidia are the most important infective units in entomopathogenic fungi and technique for its production is the solid culture medium. Entomopathogenic fungi have recently gained interest in the possibility of producing massively and formulate preparations allow stable storage for a long time, preserving its viability and infectivity. They provide the opportunity to market them as myco-insecticides and thus reduce the use of chemical pesticides, which adversely harm the environment. Under this, is justified the interest by studies that seek to find efficient means of cultivation or substrates for large-scale multiplication.

Keywords: Entomopathogenic fungi, Conidia production, Pest control.

 

REVISIÓN.

 

Hongos entomopatógenos

Uno de los factores que limita la producción de los cultivos son las plagas agrícolas. El uso indiscriminado de insecticidas sintéticos ha traído como consecuencia la selección de individuos resistentes, el resurgimiento de nuevas plagas y la contaminación ambiental (Gindin y col., 2009; Shah y Pell, 2003). El manejo integrado de plagas (MIP), se basa en principios totalmente ecológicos, considera todo el agro-ecosistema en su conjunto. Como tal, comprende la aplicación armónica de diferentes métodos de control, como la lucha biológica y las prácticas culturales que requiere el cultivo, teniendo en cuenta los niveles poblacionales de las plagas y enfermedades a controlar, la presencia de los bio-reguladores naturales, las etapas fenológicas del cultivo y las condiciones ambientales presentes (Alatorre-Rosas, 2006).

Uno de los componentes del MIP es el control biológico de las plagas agrícolas mediante parasitoides, predadores (entomófagos) y organismos entomopatógenos que pueden ser hongos, bacterias, virus, nemátodos y protozoarios. Todos los insectos son susceptibles de ser afectados por algún hongo, la mayor parte de los insectos que atacan a las plantas cultivadas tienen enemigos naturales que los parasitan y matan, produciendo así una reducción considerable en su población (Elizalde–Blancas, 2006; Jackson y col., 2010). El uso de hongos entomopatógenos (HE) para el control de tales insectos constituye, por lo tanto un componente importante, siendo muchos los hongos mencionados en diversos estudios que se usan para este propósito. Los hongos como Beauveria spp., Metarhizium anisopliae, Lecanicillium (Verticillium) lecanii, Isaria (Paecilomyces) spp., son comunes en el campo. Estos hongos tienen un amplio rango de hospederos y se han utilizado para controlar diversas plagas en diferentes lugares (Butt y col., 2001; Glare 2004; Jackson y col., 2010).

Las principales ventajas de los HE son (Kamp y Bidochka, 2002; Glare, 2004):

  1. Presentan grados variables de especificidad, pueden ser específicos a nivel de familia o especies muy relacionadas.
  2. Si el entomopatógeno encuentra las condiciones adecuadas para introducirse y colonizar un ecosistema, se reproduce y renueva en forma continua, es decir, se vuelve persistente, haciendo innecesarias nuevas aplicaciones.
  3. Se pueden aplicar mezclas de hongos entomopatógenos con dosis subletales de insecticidas, logrando efectos sinérgicos superiores a los logrados con aplicaciones de cada producto por separado.
  4. No contaminan el medio ambiente ni afectan al hombre u otros animales superiores.
  5. Cuando el hongo no llega a causar la muerte directamente, se presentan efectos secundarios que alteran el desarrollo normal del ciclo de vida del insecto.

Pero también presentan algunas desventajas como (Boucias y Pendland, 1998; Cañedo y Ames, 2004; Glare, 2004):

  1. Sensibilidad a la variación de las condiciones climáticas como temperaturas extremas, desecación y luz ultravioleta.
  2. No matan instantáneamente. Alcanzan buenos niveles de control entre una y tres semanas después de la aplicación, dependiendo de la plaga y del ambiente.

¿Cómo actúan los HE?

Los hongos entomopatógenos como agentes de control biológico se utilizan en diferentes países, como una alternativa viable para regular los insectos fitófagos que afectan cultivos de importancia económica dentro de un programa de manejo de plagas (Alatorre-Rosas, 2006). La mayoría de los bioplaguicidas elaborados con base en HE comercialmente disponibles en el mercado incluyen cepas de Beauveria bassiana, Metarhizium anisopliae e Isaria (Paecilomyces) fumosorosea; estas especies producen una cantidad considerablemente grande de conidios asexuales en un cultivo, así como en los insectos infectados, lo que facilita la dispersión en el campo (Butt y col., 2001; Glare, 2004).

Los conidios (esporas asexuales) son responsables de la infección y se dispersan en el medio ambiente debido a las corrientes del viento, o bien por el mismo insecto que se encuentre infectado al entrar en contacto con uno sano. Cuando los conidios están sobre la cutícula de un huésped, se fijan y germinan, iniciando una serie de cascadas de reacciones de reconocimiento y activación de enzimas, tanto por el huésped como por el hongo (Boucias y Pendland, 1998; Cañedo y Ames, 2004; Montesinos-Matías y col., 2011). La enfermedad producida por hongos se llama micosis. Elizalde–Blancas, (2006) menciona que el desarrollo de la micosis puede ser llevado a cabo en tres fases descritas a continuación (Figura 1):

2

Figura 1. Estructura y composición de la cutícula de insectos y forma de penetración de hongos entomopatógenos (modificado de Hajek y St Leger, 1994).

Adhesión y germinación de la espora en la cutícula del insecto.

El proceso de adhesión, dependiendo del hongo, puede ser un fenómeno específico o no específico. Mientras que la germinación de las esporas es un proceso mediante el cual una espora emite uno o varios pequeños tubos germinativos que al crecer y alargarse da origen a las hifas que penetran la cutícula, este proceso depende de las condiciones de humedad y temperatura ambiental. También puede producir una estructura llamada apresorio, la cual ayuda en la perforación de la cutícula. El éxito de la germinación y penetración no dependen necesariamente del porcentaje de germinación sino del tiempo de duración de la germinación, agresividad del hongo, tipo de espora y susceptibilidad del hospedante (Shah y Pell, 2003; Elizalde-Blancas, 2006).

Colonización del hemocele.

Ésta penetración por parte de la hifa es el resultado de la degradación enzimática de la cutícula y la presión mecánica ejercida por el apresorio. Además, depende de las propiedades de la cutícula, grosor, presencia de sustancias nutricionales y antifúngicas (Elizalde-Blancas, 2006), así como del estado de desarrollo del insecto. El integumento o tegumento; formado por una sucesión de capas, de adentro hacia afuera éstas son: membrana basal, epidermis o hipodermis y cutícula (epicutícula y procutícula) es degradada por los hongos mediante enzimas como proteasas, aminopeptidasas, lipasas, esterasas y quitinasas (Montesinos-Matías y col., 2011).

Desarrollo del hongo que resulta en la muerte del insecto.

Luego de que llegue al hemocele, el hongo puede evitar la defensa inmune del insecto produciendo células parecidas a levaduras, llamadas blastosporas, que se multiplican y dispersan rápidamente desarrollando protoplastos, elementos discretos ameboideos, sin pared celular que no son reconocidos por los hemocitos del hospedante (Pérez, 2004) y produciendo micotoxinas (Glare, 2004). La dispersión de éstos en el hemocele depende de la especie del hongo.

Los HE, además, pueden infectar a los insectos a través de las aberturas corporales como son cavidad bucal, espiráculos y otras aberturas externas. Las esporas pueden germinar rápidamente en estos ambientes por ser húmedos. Cuando lo hacen en los fluidos digestivos, en este caso, el insecto no muere de micosis sino a causa de las toxinas (Boucias y Pendland, 1998).

¿Cómo se producen los HE?

Actualmente hay tres sistemas usados para la producción de hongos entomopatógenos: el cultivo sólido, cultivo líquido y cultivo bifásico;  siendo el cultivo sólido el método que se hablará en los siguientes subtemas. Las unidades infectivas más efectivas son los conidios, pero no hay un conocimiento universal de un factor que influya en la obtención de esporas, sin embargo, se han reportado diferentes trabajos de investigación que conllevan a la mejoría en el rendimiento y esporulación de hongos entomopatógenos. Dentro de las variables estudiadas se encuentran la producción de conidios en diferentes sustratos orgánicos y sintéticos, atmósferas enriquecidas con O2 o CO2, los porcentajes de humedad del sustrato y proporciones de texturizante, efecto del tamaño de partícula del sustrato, efecto del tipo de reactor, entre otras.

Recientemente Angel-Cuapio y col., (2015) reportaron un estudio de porosidad en cultivo en soporte sólido para la producción de conidios de dos cepas de Isaria fumosorosea en mezclas de arroz precocido (AP) y lirio acuático (LA). Encontraron para la cepa I. fumosorosea CNRCB1 un rendimiento de 1.6×109 conidios/gasi y para la cepa I. fumosorosea ARSEF3302 de 7.3×109 conidios/gasi con valores de porosidad (ε) de 0.34 y 0.36, respectivamente. Además, los parámetros de infectividad contra larvas de Galleria mellonella no se modificaron. Es el primer reporte en usar lirio acuático como texturizante en cultivo sólido para modificar la porosidad, siendo un parámetro clave en la producción de conidios de I. fumosorosea.

Para evaluar la producción de conidios y su calidad en Metarhizium anisopliae var. Lepidiotum Tlecuitl-Beristain y col. (2010) reportaron diferentes medios de cultivo que contienen harina de arroz o de avena como fuente de carbono y peptona de carne como fuente de nitrógeno (g/L), incubando a 28 °C: a) harina de arroz 33.3; b) harina de avena 33.3; c) harina de arroz 33.3 y peptona 10; y d) harina de avena 33.3 y peptona 10. La peptona incrementó los rendimientos de conidios independientemente del sustrato utilizado; sin embargo, los rendimientos más altos fueron obtenidos usando el medio de harina de avena. Además, se determinó el efecto del O2 en la producción de conidios usando un medio avena-peptona y se estudió en una atmósfera normal (21% O2) y pulsos enriquecidos de oxígeno (26% O2) con recambios cada 24 h; la máxima producción de conidios (4.25×107 conidios/cm2) se obtuvo usando pulsos con 26% O2 después de 156 h de cultivo, que fue mayor al 100% con respecto a los niveles de conidios producidos bajo una atmósfera normal. El rendimiento de conidios por gramo de biomasa fue 2.6 veces mayor con 26% O2 (1.12×107 conidios/mg). Por otro lado, los parámetros de calidad de conidios, tales como germinación e hidrofobicidad no muestran diferencias significativas (a =0.05) entre estos tratamientos.

Otra investigación enfocada en la producción de conidios y amilasas de B. bassiana, es la realizada por Garza-López y col. (2012), que describen el cultivo sólido de este hongo entomopatógeno utilizando arroz como soporte sólido y fuente de carbono, con un inóculo de 1×106 conidios por gramo de sustrato seco inicial (gssi), además la adición de una solución de extracto de levadura que suplementa la fuente de nitrógeno y cofactores. En este trabajo se usó arroz como sustrato para comparar el efecto de dos composiciones de atmósferas, una normal y otra enriquecida con CO2 (5%). La máxima producción de conidios por gssi se obtuvo con la atmósfera normal (1.14X109 conidios/gssi), mientras que con la presencia de CO2, la producción de conidios disminuyó hasta 85% (1.8X108 conidios/gssi). Sin embargo, la actividad amilasa se incrementó hasta tres veces (16.58 UI/gssi) con la atmósfera que contenía dicho gas con respecto a la atmósfera normal (5.41 UI/gssi).

Por otro lado, para estudiar el efecto de la humedad y el tamaño de inóculo en la esporulación de B. bassiana, Nuñez-Gaona y col. (2010) usaron salvado de trigo (fuente de carbono) y bagazo de caña (texturizante) en diferentes proporciones (% peso/peso): 100/0, 70/30, 50/50, 30/70. Se evaluaron diferentes contenidos de humedad (66, 75 y 80%) y se estudiaron varios niveles de inóculo (1X106, 6X106 y 5X107 conidios/gss),  con una temperatura de incubación de 28°C. Se alcanzó un rendimiento máximo de 1.18X1010 conidios/gss en el CSS usando salvado de trigo con 66% de humedad y actividad de agua de 1 (aw =1); este rendimiento disminuye en orden de magnitud al incrementar el contenido de humedad o con la adición de bagazo de caña. Por otro lado, en CSS usando salvado de trigo (66% humedad), se determinó el tiempo para obtener un rendimiento de 1X1010 conidios/gss, que se conoce como t10, que puede predecirse usando un modelo considerando el tamaño de inóculo y rendimientos máximos. De esta manera, el t10 fue de 285 h con un inóculo de 1X106 conidios/gss, sin embargo, el t10 disminuye a 232 h y 148 h para un inóculo de 7X106 y 5X107 conidios/gss, respectivamente.

¿Y la calidad de los conidios?

Los parámetros de calidad de hongos utilizados para el control de insectos plaga se realizan sobre el producto final, es decir, sobre el formulado que se aplicará en campo (Alatorre-Rosas, 2006). El propósito del control de calidad es el de llevar a cabo pruebas que predigan el funcionamiento del enemigo natural en campo, además de detectar alguna irregularidad en los sistemas de producción de conidios (Berlanga-Padilla, 2006).

Viabilidad

La viabilidad es la medida de la cantidad de estructuras (conidios) que tengan la capacidad de germinar, expresada en porcentaje. El estándar recomendado para la utilización de hongos entomopatógenos como agentes de control biológico es de una viabilidad mayor del 80% (Berlanga-Padilla, 2006). La viabilidad o proporción de conidios vivos disminuye con el tiempo, esto depende de las condiciones en las cuales son almacenados, esta prueba debe ser realizada al momento de la extracción y formulación del material, a diferentes intervalos de tiempo durante el periodo de almacenamiento y antes de ser usado. De hecho, diferentes factores nutricionales y factores ambientales como la temperatura, luz y pH afectan la viabilidad, germinación, crecimiento vegetativo y esporulación (De la Torre, 2006).

Las formulaciones a base de HE tienen un tiempo de vida media entre 6 y 12 meses, una de las razones por el cual presentan un tiempo corto es su débil estabilidad a altas temperaturas (Kim y col., 2010). Sin embargo, es posible que la edad y condiciones del inóculo usados para almacenar, puedan contribuir en la viabilidad y estabilidad morfológica en periodos largos (Borman y col., 2006).

Germinación

La germinación es la emergencia del tubo germinativo a partir de un conidio. Se considera un conidio germinado, cuando el tamaño del tubo germinativo es mayor al ancho del conidio (Ibrahim y col., 2002). Las condiciones nutricionales y la temperatura son factores que afectan la germinación Una germinación rápida ayuda a tener una mayor probabilidad de éxito en el campo, ya que los aislamientos con una lenta germinación están en desventaja porque están expuestos a las condiciones desfavorables más tiempo lo cual reduce su viabilidad en el campo (Fernández-Rosas, 2006). Se debe notar que la germinación no garantiza la viabilidad de los conidios, por lo que ambas pruebas son complementarias.

Hidrofobicidad

La hidrofobicidad de los conidios es un concepto general a nivel físico, es una propiedad de la superficie de los conidios que permite eventualmente asociarse a sustratos u hospederos (Jeffs y Khachatourians, 1997). De hecho, la hidrofobicidad de la superficie de los microorganismos es fundamental para su adhesión a las superficies con las que interactúan (Le-Tian y col., 2010). En el caso de los conidios, la hidrofobicidad es el producto de una capa sobre la superficie muy bien organizada de estructuras proteicas en forma de varillas (rodlets) (Kim y col., 2010). Las principales proteínas que constituyen los “rodlets” son las hidrofobinas.

Infectividad

Así también, los bioensayos realizados en laboratorio son comúnmente utilizados para seleccionar cepas; subsecuentemente se recomienda realizar pruebas en campo y estudios relacionados a la producción masiva, formulación y propiedades de almacenaje (Vega y col., 2012).

CONCLUSIÓN.

 

Los micoinsecticidas son una alternativa viable para ser utilizados como agentes de control biológico en los cultivos agrícolas, estos productos elaborados con base en hongos entomopatógenos son considerados organismos de importante valor ecológico al desempeñar funciones de regulación sobre insectos considerados plaga en el sector agrícola, debido a que su aplicación permite mantener la productividad del campo sin contaminarlo y sin poner en riesgo la salud de la población que entra en contacto directo o en forma indirecta con estos insumos, en este sentido, la intervención de los micoinsecticidas está dando un cambio de nuestras comunidades y/o sociedades porque de alguna manera el beneficio obtenido al aplicar estos formulados genera menor deterioro del medio ambiente y con ello la preservación del área.

 

REFERENCIAS.

 

  1. Alatorre-Rosas, R. (2006). Insecticidas microbianos en el manejo de insectos plaga. Taller: Hongos entomopatógenos (Ascomycetes anamórficos (Deuteromycota), Entomophthorales): Control de calidad. Manzanillo Colima.
  2. Angel-Cuapio, A., Figueroa-Montero, A., Favela-Torres, E., Viniegra-González, G., Perraud-Gaime, I., y Loera, O. (2015). Biochem. Biotechnol. 177:446-457.
  3. Angel-Cuapio, A., Figueroa-Montero, A., Favela-Torres, E., Viniegra-González, G., y Loera, O. (2015). Critrical values of porosity in rice cultures of Isaria fumosorosea by adding water hyacinth: effect on conidial yields and quality. Applied of Biochemistry and Biotechnology, 177: 446-457.
  4. Berlanga-Padilla, A. (2006). Calidad de hongos entomopatógenos. Taller: Hongos entomopatógenos (Ascomycetes anamórficos (Deuteromycota), Entomophthorales): Control de calidad. Manzanillo Colima.
  5. Borman, A.M., Szekely, A., Campbell, C.K., y Johnson, E.M. (2006). Evaluation of the viability of pathogenic filamentous fungi after prolonged storage in steril water and review of recent published studies on storage methods. Mycopathologia 161. 362-368.
  6. Boucias, D.G., y Pendland, J.C. (1998). Principies of insect pathology. Klewer Academic Publishers. P.p. 1-14.
  7. Butt, T.M., Jackson, C., y Magan, N. (2001). Introduction-Fungal biological control agents: progress, problems and potencial. En: Fungi as Biocontrol Agents, (TM Butt, Jackson C, Magan N., eds). Pp. 1-8. CABI Publishing, UK.
  8. Cañedo, V., y Ames, T. (2004). Manual de laboratorio para el manejo de hongos entomopatógenos. Centro Internacional de la Papa. P.p. 1-62
  9. Cayuela, M.L., Sánchez-Mondero, M.A., y Roig, A. (2006). Evaluation of two different aeration systems for composting two-phase olive mill wastes. Process Biochemistry 41, 616-623.
  10. De la Torre, M. (2006). Producción de hongos entomopatogenos. Taller: Hongos entomopatógenos (Ascomycetes anamórficos (Deuteromycota), Entomophthorales): Control de calidad. Manzanillo Colima
  11. Elizalde-Blancas, V. (2006). Signos y síntomas causados por hongos entomopatógenos en insectos hospederos. Taller: Hongos entomopatógenos (Ascomycetes anamórficos (Deuteromycota), Entomophthorales): Control de calidad. Manzanillo Colima.
  12. Fernández-Rosas, F. (2006). Métodos de preservación. Taller: Hongos entomopatógenos (Ascomycetes anamórficos (Deuteromycota), Entomophthorales): Control de calidad. Manzanillo Colima.
  13. Garza-López, P.M., Konigsberg, M., Gómez-Quiroz, L.E., y Loera, O. (2012). Physiological and antioxidant response by Beauveria bassiana Bals (Vuill.) to different oxygen concentrations. World Journal of Microbiology and Biotechnology 28, 353-359.
  14. Gindin, G., Glazer, I., Mishoutchenko, A., y Samish, M. (2009). Entomopathogenic fungi as a potencial control agent against the lesser mealworm, Alphitobius diaperinus in broiler houses. BioControl 54,549-558.
  15. Glare, T.R. (2004). Biotechnological potencial of entomopathogenic fungi. En: Fungal biotechnology in agricultural, food and environmental applications (Arora DK, ed). Pp. 79-90. Marcel Deker Inc, New York.
  16. Hajek, A.E., y St Leger, R.J. (1994). Interactions between fungal pathogen and insect host. Annual Review of Entomology 39, 293-322.
  17. Ibrahim, L., Butt, T.M., y Jenkinson, P. (2002). Effect of artificial culture media on germination, growth, virulence and surface properties of the entomopathogenic hyphomycete Metarhizium anisopliae. Mycological Research 106, 705-715.
  18. Jackson, M.A., Dunlap, C.A., y Jaronski, S.T. (2010). Ecological considerations in producing and formulating fungal entomopathogens for use in insect biocontrol. BioControl 55, 129-145.
  19. Jeffs, L.B., y Khachatourians, G.G. (1997). Estimation of spore hydrophobicity for members of the genera Beauveria, Metarhizium, and Tolypocladium by salt-mediated aggregation and sedimentation. Canadian Journal of Microbiology 43, 23-28.
  20. Kamp, A.M., y Bidochka, M.J. (2002). Conidium production by insect pathogenic fungi on commercially available agars. Letters in Applied Microbiology 35, 74-77.
  21. Kim, J.S., Skinner, M., Hata, T., y Parker, B.L. (2010). Effects of culture media on hydrophobicity and thermotolerance of Bb y Ma conidia, with description of a novel surfactant based hydrophobicity assay. Journal of Invertebrate Pathology 105, 322-328.
  22. Le-Tian, S., Zheng-Liang, W., Sheng-Hua, Y., y Ming-Guang, F. (2010). Hydrophobicity-related protein contens and surface areas of aerial conidia are useful traits for formulation design of fungal biocontrol agents. Mycopathologia 169, 483-494.
  23. Montesinos-Matías, R., Viniegra-González, G., Alatorre-Rosas, R., y Loera, O. (2011). Relationship between virulence and enzymatic profiles in the cuticle of Tenebrio molitor by 2-deoxy-D-glucose-resistant mutants of Beauveria bassiana (Bals.) Vuill. World Journal of Microbiology and Biotechnology 27, 2095-2102.
  24. Nuñez-Gaona, O., Saucedo-Castañeda, G., Alatorre-Rosas, R., y Loera, O. (2010). Effect moisture content and inoculum level over growth and conidia production by Beauveria bassiana on wheat bran. Brazilian Archives of Biology and Technology 53, 771-777.
  25. Pérez, C.N. (2004). Manejo Ecológico de Plagas. Centro de Estudios de Desarrollo Agrario y Rural – CEDAR. P.p. 1-296.
  26. Shah, P.A., Pell, J.K. (2003). Entomopathogenic fungi as biological control agents. Applied Microbiology and Biotechnology 61,413-423.
  27. Shah, P.A., y Pell, J.K. (2003). Entomopathogenic fungi as biological control agents. Applied Microbiology and Biotechnology 61, 413-423.
  28. Tlecuitl-Beristain, S. (2010). Producción de conidios de Metarhizium anisopliae en cultivos con concentraciones modificadas de O2 y CO2. Tesis de doctorado. Universidad Autónoma Metropolitana-Iztapalapa. México. Pp. 1-33.
  29. Vega, F. E.,Meyling, N. V., Luansay-hard, J. J., & Blackwell, M. (2012). In F. E. Vega & H. K. Kaya (Eds.), Insect pathology: Fungal entomopathogenic (pp. 171–206). San Diego: Academic Press.

 

 

 

 

Yolanda Escamilla-Lozano, María José Serrano-Maldonado, Alejandro Angel-Cuapio

Tecnologico de Estudios Superiores del Oriente del Estado de México. División de Ingeniería Ambiental, Paraje de San Isidro S/N, Barrio de Tecamachalco, 56400, Los Reyes Acaquilpan, Estado de México.

Universidad Autónoma Metropolitana-Unidad Iztapalapa. Departamento de Biotecnología. San Rafael Atlixco 186, Vicentina, 09340, Iztapalapa, Ciudad de México.

 

* Autor para la correspondencia: M. en B. Alejandro Angel Cuapio

  E-mail: angelcuapio@yahoo.com.mx           Tel. 55-68-78-90-32

 

Estabilización estructural del a enzima lacasa del hongo Trametes versicolor por métodos computacionales.

 

 

Structural stabilization of laccase enzyme of

      trametes versicolor fungus by computational methods.

Herrera-Zuñiga L. D.*

Tecnológico de Estudios Superiores del Oriente del Estado de México, Paraje de San Isidro S/N Barrio de Tecamachalco, Los Reyes Acaquilpan,

 

RESUMEN.

Este trabajo se enmarca en el campo de la ingeniería de las proteínas con el objetivo de proponer mutantes que adquieran estabilidad estructural ante condiciones extremas, y utiliza a la DM como uno de sus instrumentos de validación. De esta manera, presentamos los resultados obtenidos de métodos computacionales donde la técnica de simulación por DM ha servido para investigar los cambios estructurales locales asociados a mutaciones puntuales en la enzima lacasa del hongo Trametes versicolor. El diseño de las mutantes se enfocó en introducir puentes salinos potenciales en la superficie de la proteína, que pudieran tener la capacidad de incrementar la resistencia estructural de dicha proteína a través de las interacciones electrostáticas resultantes. Nuestro trabajo se encuentra cimentado en la selección de los modelos de la proteína mutante para los que su energía estructural esté por debajo de la de wtTv, calculas mediante algoritmos de MM-PBSA a tres temperaturas diferentes.

Palabras clave: Lacasa,, Dinámica Molecular , MM-PBSA, Modelado, Energía, Temperatura, Mutante.

 

 

ABSTRACT.

 

This work is part of the field of protein engineering in order to propose structural stability on protein mutants under extreme conditions,, we use the DM as one validation instruments. Thus, we present the results of computational methods where DM simulation technique has been used to investigate the local structural changes associated to one mutation on fungal Trametes versicolor laccase enzyme. The design of mutant focused on introducing a potential surface salt bridges on the protein, which may have the ability to increase the structural strength of said protein through the resulting electrostatic interactions. Our work is founded on the selection of the protein mutant models for its structural energy is below that of wtTv, algorithms calculate by MM-PBSA at three different temperatures.

Keywords: Laccase , Molecular Dynamics , MM-PBSA , Modeling , Energy, Temperature, Mutant.

 

 

INTRODUCCIÓN.

 

Las proteínas son grandes estructuras moleculares que actúan como actores esenciales de los principales procesos intra- e inter- celulares: contribuyen a mantener la estructura global, son las moléculas responsables del trabajo mecánico en las celulares, son agentes claves en la comunicación celular, regulan la expresión génica, constituyen los elementos claves del sistema inmune y actúan como catalizadores de por lo menos el 90% de todos los procesos metabólicos.

Desde un punto de vista químico, las proteínas corresponden a polímeros poliamídicos ensamblados por una combinación de 20 aminoácidos, presentan varios tamaños que gozan de una gran flexibilidad debido a la posibilidad de rotación de los enlaces sencillos vecinos al de amida o peptídico (los ángulos ψ).

La codificación para nuestras proteínas viene inscrita en el código genético que heredamos de nuestros antepasados, dicha codificación es mejor conocida como secuencia polipeptídica o de aminoácidos, misma que determina la estructura tridimensional, que, a su vez, marca la funcionalidad de la proteína.

Conocer la estructura de las proteínas nos facilita la comprensión del modo en que trabajan y, por tanto, de cómo podemos operar sobre ellas. Este conocimiento constituye el paradigma central de la biología estructural y del diseño racional de ellas, razón que ha empujado el desarrollo de proyectos de investigación con base en la estructural de proteínas por todo el mundo.

Enzima Lacasa

La enzima lacasa (eLa) es una proteína perteneciente a la familia de las multicobre oxidasas ya que presenta iones de cobre inmersos en el sitio catalítico y he indispensables para su función catalítica, dichos átomos metálicos se encuentran empaquetados por la conjugación de tres dominios estructurales (ver figura 1). La enzima consiste de un polipéptido de alrededor de 500 residuos de aminoácido; un peso molecular de aproximadamente de 54 kDa que incluye una porción de carbohidratos, Brooks BR y col (1983), Durão Py col (2006), Lindley P. F. (2004). La eLa permite la reducción de oxígeno molecular generando una molécula de agua, la cual se acompaña algunas veces por la acción oxidante de sustratos sintéticos para acelerar la catálisis.

2

Figura 1. Andamiaje de la enzima lacasa del hongo TrameteswtTv. A) Representación en listones para la estructura tridimensional, en color azul, rojo y blanco se aprecian los tres dominios estructurales de la esta enzima. B) Representación esquemática del ensamble para la enzima lacasa, los rombos apresan ser los dominios estructurales presentados en A. Las esferas de color ocre en A y B presentan la ocupación de los representan los átomos de cobre dentro del sitio activo.

El rol natural de (eLa) es generar la despolimerización (ruptura oxidativa) de la lignina, un elastómero con arreglos de cadenas entrecruzadas o matriciales de moléculas de monolignoles que protege y genera rigidez a organismos vegetales Riva S. (2006).

Los átomos de cobre y el sitio activo

Típicamente la enzima lacasa contiene tres tipos de átomos para cobre, debido a su clasificación espectroscópica y de UV, un cobre lejano, denominado como tipo I (Cu_1) más tres cobres en un clustertrinuclear, de los cuales uno es tipo II (Cu_2) y dos son tipo III (Cu_3, Cu_4), Bertrand T. yclo (2002), Lindley P. F. (2004) y Salomon E. y col (1996).

Tipo I cu :     Máximo de absorción en la región de luz visible encontrado cuando  e> 3000 M -1 cm-1 a 600 nm.

Tipo II o normal cu : Absorción de luz indetectable.

Tipo IIl cu :   Presenta una absorción fuerte en el UV cercano a 330 nm.

La aplicación práctica e industrial para el uso de la enzima lacasa es variada y deriva del poder biocatalítico natural y específico por realizar la ruptura de la molécula lignina (degradación de fenoles), la aplicación va desde degradación de residuos vegetales para la producción de biocombustibles como el bioetanol o el biodiesel, hasta el desarrollo de detectores de drogas, pasando por la industria alimentaria y cosmética, ejemplo: en la clarificación del vino o eliminación de compuestos recalcitrantes, Mayer A. F. y Staples R. C. (2002), Durão P. y col (2006) y Piontek K. y col. (2002). No obstante, el verdadero proceso que atrae a la comunidad científica es la capacidad intrínseca de esta enzima por degradar la matriz lignolítica (deslignificar) de cuerpos lignocelulósicos, en conjunto con moléculas dependientes del tipo de reacción, figura 2, . Mayer A. F. y Staples R. C. (2002).

3

Figura 2. Esquema del ciclo catalítico para el sistema lacasa-mediador-sustrato. Dentro del ciclo natural para la enzima lacasa el mediador suele ser el propio oxígeno en su forma molecular. En este caso se presenta un mediador sintético llamado ABTS, el cual acelera la reacción de óxido-reducción hasta en un 45%, Piontek K. y col (2009).

Simulación computacional: poderosa herramienta

Es sabido que los experimentos juegan un rol importante en la ciencia, siendo la riqueza de sus resultados los que proveen las bases del entendimiento dinámico sobre la química de la vida. No obstante, los experimentos no son parte de toda la historia y son posibles sólo cuando hay una interconexión entre modelos y teoría. Por ello es que la simulación computacional se encuentra coligada entre teoría y experimentación. La esencia de la simulación radica en el uso de un computador para modelar un sistema físico, mediante modelos matemáticos y donde los resultados suelen interpretarse en términos de sus propiedades físicas.

Los parámetros de dicho modelo y sus diferentes cantidades físicas pueden, en un sentido, ser medidas sobre el computador, justificando así el término ‘experimento computacional’.

Por otro lado el modelado molecular es un término general que engloba métodos teóricos y técnicas computacionales que modelan o imitan el comportamiento de moléculas desde pequeños sistemas químicos hasta grandes moléculas biológicas mediante técnicas de DM, Meller J. (2001)

Resistencia térmica

Como las enzimas termofilicas juegan un rol prometedor en la industria biotecnológica donde en su mayoría un ambiente a altas temperaturas es requerido para el proceso de catálisis, es de gran importancia adquirir una aproximación racional que sustente él como un enzima se adopta a condiciones fuera de su rango fisiológico.

Numerosos trabajos sobre el origen fisicoquímico de la estabilidad térmica han sido realizados, y estos sugieren una variedad de factores pueden contribuir a mejorar la estabilidad, tales como una composición de aminoácidos dada, pares iónicos, puentes de hidrógeno, puentes salinos, entre otros. Entre estos efectos uno de los más frecuentemente reportados a nivel estructural entre proteínas mesófilas y termófilas es el número de puentes salinos. Al parecer entonces los puentes salinos pueden tener un papel considerable en la mejora de la estabilidad general. Convirtiéndose así los puentes salinos en nuestro principal objetivo para estudiar la estabilización térmica.

MATERIALES Y MÉTODOS.

 

La metodología utilizada en el presente trabajo se puede observar en el diagrama de flujo 1.

La sistemática de la tesis consistió con llevo una serie de pasos los cuales algunas veces se realizaron hasta por quintuplicado. Lo primero consistió en encontrar una lacasa a la cual se tuviera acceso con la finalidad de corroborar los cálculos teóricos de manera experimental.

4

Diagrama de flujo 1. Protocolo de trabajo seguido para la minimización y la simulación del sistema. A) protocolo general del trabajo de tesis. B) protocolo de minimización. C) protocolo de simulación. Líneas de un mismo color implican ciclos, donde los ciclos se leen de adentro hacia afuera. Líneas de distinto color en un ciclo refieren una probable iteración sobre el mismo paso.

El paso siguiente fue realizar el modelo tridimensional de la secuencia de aminoácidos para dicha enzima, seguido se analizó la calidad estereoquímica del modelo con el software computacional ANOLEA y PROSAII, los cuales no se presentan puesto que ya se han discutido informes atrás. Una vez analizado el modelo. De manera seguida se realizó la búsqueda de aminoácidos con capacidad de ser mutados; una vez determinados estos aminoácidos y realizadas las mutaciones se prosiguió a realizar la minimización de energía para cada mutación. Como último paso se realizó la dinámica molecular de las proteínas que presentaron una disminución de la energía considerable con respecto a la enzima nativa, así como sus análisis, bajo la finalidad de obtener las proteínas.

Condiciones de la minimización y protocolo para la simulación por DM

 

Los lanzamientos de minimización y simulación por DM se realizaron con el paquete computacional NAMD 2.7 y se visualizaron con VMD 1.8, Banci L. (2003) y Bertrand T., y col . (2003), ya mencionado algunas páginas atrás. El sistema estudiado en la primera parte de los resultados, así como en ésta, comprende a la enzima lacasa + solvente con aproximadamente 80, 000 átomos (ver figura 8). La minimización y simulación se llevaron a cabo en un con ayuda del Cluster Aitzaloa situado en el laboratorio de supercómputo de la Universidad Autónoma Metropolitana.

El protocolo para la minimización tuvo lugar como a continuación se explica y bajo los siguientes criterios de simulación. Un doble cut-off para calcular las interacciones a corta distancia de 10 a 14 Å con punto de inflexión en 10 Å, PME para las interacciones a larga distancia con un vectores constantes a 85, 90 y 70Å a lo largo de los ejes x, y, y z respectivamente, más 150,000 pasos de minimización, aplicando restraints al sitio activo a cada etapa de minimización.

5

Figura 3. Sistema del Modelo lacasalTv + solvente con un aproximado 80, 000 átomos. Los puntos representan las moléculas de solvente con un espesor de 10 Å y un total 70,000 átomos. Las esferas color ocre representan los átomos de cobre. Y en gris se muestra la conformación tridimensional nativa para wtTv con aproximadamente 10,000 átomos.

Este tratamiento se realizó para cada una de las proteínas (1 silvestre y 10 mutaciones). La estrategia de minimización para evitar que el sistema colapsara fue realizada de la siguiente forma. Primero se tomó la proteína con las moléculas de agua co-cristalográficas provenientes del archivo PDB Se minimizó, después se construyeron las mutantes, paso seguido la molécula se solvató y se agregaron contraiones para obtener un sistema neutro.

Paso siguiente el sistema se trata de afuera hacia dentro, es decir, se minimizó el solvente manteniendo fija la proteína, seguido se minimizó el solvente y las cadenas laterales de la proteína, manteniendo fija la cadena principal y el sitio activo, y por último se minimizó el sistema exceptuando el sitio activo el cual, como anteriormente, se mantiene fijo durante todas las etapas de minimización. El algoritmo de minimización se puede apreciar mejor en el diagrama de flujo.

Seguido a la minimización se lanzaron las once simulaciones por MD. Dicha simulación fue lanzada para obtener datos de 5 ns (5 x 106 femtosegundos) de movimientos de la proteína. Como ya se mencionó, las simulaciones se llevaron a cabo con el campo de fuerzas CHARMM32b all_27 con las correcciones CMAP. Dentro de los parámetros de cálculo a tener encuentra al momento de correr nuestras simulaciones se pueden mencionar a groso modo los siguientes:

Particle Mesh Ewald con la finalidad de realizar el cálculo electrostático de largo alcance esto bajo los mismos criterios de minimización, un doble cut-off de 13 a 11 Å con un punto de inflexión en 12 Å para las interacciones no enlazantes de corto alcance, este doble cut-off es el recomendado por usuarios experimentados y cercanos a los desarrolladores de NAMD, los cuales informan que un cut-off como el presentado aquí puede dirigir la simulación a obtener mejores resultados en el cálculo de las energía no enlazantes cuando se modelan proteínas con aproximadamente 40,000 átomos o más.

La simulación por DM se lanzó como un modelamiento de Langevin bajo un ensamble NPT isotérmico-isobárico a una P=1 atm, y una T=298, 323 y 348 K constantes a cada una de las simulaciones dadas. Tamaño de paso acorde a los 2 para integrar las ecuaciones de movimiento, necesario para inmovilizar los enlaces hacia los átomos ligeros (hidrógeno), lo cual es nuestro caso. La simulación para las mutantes se realiza manteniendo el sitio activo (SA) restringido bajo un oscilador armónico utilizando COLVARS MODULE contenido en NAMD.

 

RESULTADOS.

 

Como ya ha venido comentando el modelado molecular, la búsqueda de rotámeros, la exploración de la superficie, así como la construcción de mutantes para wtTv se realizó con software computacional MOE. Si bien MOE puede realizar cálculos físicos, matemáticos y estadísticos tales como: minimización de energía, docking y simulación por DM, hemos decidido en principio realizar la minimización y simulación por DM con el software computacional NAMD –NAnoscaleMolecular Dynamics- debido a su alta eficiencia para trabajar en paralelo (asignación de tareas en multiprocesadores), y VMD –Visual Molecular Dynamics- por ser un paquete computacional explícitamente diseñando para realizar simulación por DM, y en conjunto por su alto contenido de citas en artículos de talla internacional con al menos 30% del total de artículos referidos a DM, además de ser un software de libre acceso u “open source” en inglés con probabilidades de ser instalado en el ClusterAitzaloa, supercomputadora con540 procesadores Quad-Core (2160 CORES) localizado en el Laboratorio Central de Supercómputo de la UAM-Iztapalapa.

Relajamiento y dinámica molecular de las mutantes

De las treinta y dos mutantes encontradas sobre wtTv, diez de éstas fueron tomados para simulación por DM. Los criterios para eliminar dieciocho mutantes de treinta y dos propuestas se encuentran ligados directamente con las características estructurales y energéticas para cada una de las mutaciones.

El criterio de eliminación estructural, se aplicó a cuatro de las dieciocho mutantes ya que estas mutaciones correspondían a residuos de glicina importantes para guardar la conformación de loops cortos (cuatro a cinco residuos), mediante experimentos de mutación dirigida encontrados en la literatura, se ha mostrado que residuos de glicina dentro de loops cortos son imprescindibles para el correcto pegamiento de las proteína.

La exclusión energética tomó un curso natural dirigido por el tiempo para poner a punto la simulación por DM (inclusión de parámetros al campo de fuerza y archivos de topología, preparación de la proteína, potocos de simulación…), así como por el mismo tiempo que tarda en correr una simulación por DM. La energía de cada una de las doce proteínas mutadas (proteínas problema), la proteína nativa wtTv, las mutaciones correspondientes a testigos negativos y un testigo positivo, se pueden apreciar en la grafica1.

El testigo positivo hace alusión al trabajo realizado in vitro por el Dr. Polaina y colaboradores sobre la -glucosidasa (b-glu) insertando exitosamente un par iónico mediante mutación dirigida, con la finalidad de incrementar la resistencia estructural de la enzima.

Después de evaluar y analizar en un primer plano bajo criterios energéticos (MMPB-SA) las mutantes líderes con posibilidad de ser mutadas se muestran en la gráfica 1. En la figura 1 se pueden apreciar los cambios estructurales energéticos sufridos por cada una de las proteínas.

Para éstas se observó que la energía evaluada alcanzo aproximados de -300kcal/mol. para una diferencia entre mutación y proteína silvestre.

6

Gráfia1. Promedio y desviación estándar de la energía libre como una función de la temperatura y mutaciones. MM-PBSA vs T

La gráfica 1 muestra la energía libre ( DG) calculada mediante MM-PBSA, éste cálculo fue generado mediante la combinación de parámetros tales como mecánica molecular (EMM), resolución de la ecuación de Poisson-Boltzmann (PB) y la energía calculada sobre el área accesible al solvente (ASA). En la presente gráfica se tabuló el cambio energético y desviación estándar para cada una de las mutantes encontradas, en esta se observa que un aumento en la temperatura produce una disminución de la energía libre, ya que al graficar la energía para la simulación a 348K su promedio se muestra por encima de la simulación ejecutada a 323K y 298K. De la gráfica 1 se desprende que la mutación con mejor energética comprada con wttv es a71r.

REFERENCIAS.

  1. Banci L. (2003). Molecular Dynamics of Metalloproteins. Current Opinion in Chemical Biology. 7: 143-1469.
  2. Bertrand T., Jolivant C., Briozzo P., Caminade E., Joly N., Madzak C., Mougin C. (2002). Crystal Structure of a Four-copper Laccase Complexed with an Arylamine: Insights Intro Substrate Recognition and Correlation with Kinetics. Biochemistry, 41 (23):7326-733.
  3. Brooks BR, Bruccoleri RE, Olafson BD, States DJ, Swaminathan S, Karplus M (1983). CHARMM: A Program for Macromolecular Energy, Minimization, and Dynamics Calculations. Journal of Computational Chemistry (4):187–21.
  4. Durão P., Bento I., Fernandes A. T., Melo E. P., Lindely P. F., Martins L. O. (2006). Perturbations of the T1 Copper Site in the CotA Laccase from Bacillus subtilis: Structural, Biochemical, Enzymatic and Stability Studies. Journal of Biological Inorganic Chemistry, 11:514-526.
  5. Lindley P. F. (2004) Multi-Copper Oxidasas. European Synchrotron Radiation Facility. BP-220 F-38043 Grenoble Cedex, France.
  6. Martyna G.J., Tuckerman M.E., Tobias D.J., Klein M.L. (1996). Explicit Reversible Integrators for Extended System Dynamics. Molecular Physics.87:1117–1157.
  7. Mayer A. F. and Staples R. C. (2002) Laccase: new function for an old enzyme. Phytochemistry, 60:551-565.
  8. Meller J. (2001) Molecular Dynamics. Encyclopedia of Life Sciences.
  9. Phillips J. C., Braun R., Wang W., Gumbart J., Tajkhorshid E., Villa E., Chipot C., Skeel R. D., Kalé L., Schulten K. (2001). Scalable Molecular Dynamics with NAMD. Journal of Computational Chemistry, 26 (16):1781-1802.
  10. Piontek K., Antorini M., Choinowki T. (2002.). Crystal Structure of a Laccase from the Fungus Trametes versicolor at 1.90 Å Resolution Containing a Full Complement of Coppers. The Journal of Biological Chemistry, 227 (40):37663-37669.
  11. Riva S. (2006). Laccases: Blue Enzymes for Green Chemistry. Trends in Biotechnology, 24 (5):219-22.
  12. Salomon E. I., Chen P., Metz M., Lee S-K., Palmer A. E. (2001). Oxygen Binding, Activation, and Reduction to Water Copper Proteins. Angewandte Chemie (International edition in English), 40:4570-4590.
  13. Salomon E. I., Sundaram U. M., Machonkin T. E. (1996). Multicopper Oxidases and Oxygenases. Chemical Reviews, 96 (7):2563-2606.
  14. Tieleman D.P., Berendsen H.J. (1995). Molecular Dynamics Simulations of a fully hydrated Protein with Different Macroscopic Boundary Conditions and Parameters, Journal of Chemical. Physics.105:.4871–4880.
  15. William Humphrey, Andrew Dalke, and Klaus Schulten. (1995) VMD – Visual Molecular Dynamics.Journal of Molecular Graphics.14: 33-38.
  16. Zhou F., Schulten K. (1995). Molecular dynamics study of a Membrane–Water interface. Journal of Physical hemistry. 99:199 2194.

 

 

 

Herrera-Zuñiga L. D. *

Tecnológico de Estudios Superiores del Oriente del Estado de México, Paraje de San Isidro S/N Barrio de Tecamachalco, Los Reyes Acaquilpan,

* Autor para la correspondencia: M. en B. Leonardo D. Herrera Z.

 E-mail: ldz04@yahoo.com.mx          Tel. 55-25-62-44-95

 

 

LA EMPRESA CO-CREATIVA: EL CAMBIO DE UNA ORGANIZACIÓN TRADICIONAL A UNA ORGANIZACIÓN INTELIGENTE

THE COMPANY CO-CREATIVE: THE SHIFT FROM A TRADITIONAL ORGANIZATION TO A LEARNING ORGANIZATION

Alicia González Hernández*, Guadalupe Israel Flores Ariza1, Juan Luis Reyes Cruz1

1Universidad Autónoma del Estado de Hidalgo, Avenida del maestro # 41, Colonia Noxtongo Primera Sección, Tepeji del Río de Ocampo, Hidalgo.

 

 

RESUMEN.  

Las organizaciones tradicionales están condenadas a desaparecer en un mundo cada día más competitivo, los factores de la producción tradicionales están perdiendo posición y hoy tienen un menor grado de importancia en comparación al que está teniendo el conocimiento y la información organizada y administrada con la que puede contar una empresa inteligente. Sin embargo el conocimiento no  debe nacer de la mente de una sola persona, debe darse como producto de la interacción de los afectados por la actividades de la empresa, en ese sentido una organización inteligente debe de establecer procesos que permitan captar todas esa experiencias de los individuos, mismas que le permitan resolver los problemas, pero sobre todo alcanzar el éxito como organización, en este trabajo se documenta parte del proceso de dicha organización que hoy se conoce como empresa co-creativa.

               

Palabras Clave: Organización Inteligente, Administración del Conocimiento, Conocimiento Organizacional, Proceso Justo, Empresa Co- Creativa.

ABSTRACT.

Traditional organizations are sentences to disappear in an increasingly competitive world, the traditional production factors are positioned at a lower level of importance compared to that is having the knowledge and information well organized and managed with which you can tell a company. However, knowledge should not be born from the mind of a single person, it must be a product of the interaction of those affected by the activities of the company, in that sense a learning organization must establish processes to capture all that experiences of individuals that enable them to solve problems, but mainly as an organization succeed.

Key Word: Smart organization, management of knowledge, organizational knowledge, process fair, company Co – creative.

INTRODUCCIÓN.

 

Hasta hace algunos años se decía que la información era el recurso más importante con el que una organización podía contar, sin embargo en la actualidad la información pura y simple ha dejado de ser un factor que represente el posicionamiento de una organización en un futuro cercano. Hoy es necesario aprender a trasformar esa información en conocimiento para la generación de nuevos productos y con ello diversificar los mercados y así captar un mayor número de clientes.

“A partir del lanzamiento del primer cohete espacial, en la década de 1960, la humanidad entró en la era de la información, en la cual el conocimiento es el recurso estratégico y la                 principal ventaja competitiva” (Chiavenato, 2009).

Sumado a lo anterior, la evolución de la sociedad y sus necesidades, han obligado a que las empresas no se encuentren estática; así tanto en sus procesos, como en la forma en que toman decisiones  la opinión de todos aquellos que participan en las actividades inherentes de la organización, será importante para establecer mejoras en los sistemas de producción.

A lo largo de este trabajo se establecen algunos de los factores que son necesarios para que se dé un rompimiento en el paradigma en la forma de trabajo tradicional de una organización, para dar paso a una empresa co-creativa.

Estado del arte

Haciendo una revisión del estado actual del tema en estudio, se puede hacer mención de una gran variedad de investigaciones que existen respecto al tema de organizaciones inteligentes, en ese sentido se puede hacer mención, a M., Tejeda G., & Yataco T. (2003), en donde refieren que las mismas son aquellas que tienen la capacidad de aprender permitiendo de ésta forma expandir sus posibilidades de crecimiento, ya que no basta con el simple hecho de sobrevivir, sino sobre todo se trata de desarrollar la capacidad de una organización de crear. La construcción de una organización autentica con una capacidad de aprendizaje y creatividad.

Por otro lado para Peter Senge (1996), las organizaciones inteligentes son en donde la gente expande continuamente su aptitud para crear los resultados que desea además de cultivar nuevos y extensivos patrones de pensamiento, donde la aspiración colectiva queda en libertad y donde la gente aprende a aprender en conjunto.

Mientras tanto para Carpio (2012) una organización inteligente es aquella que tiene la capacidad de aprender al ritmo de las personas que las conforman, por lo que para definir un Modelo de este tipo de organizaciones se debe de integrar diferentes disciplinas, teóricas y filosóficas que permitan construir una estructura de la organización para que esté orientada al aprendizaje continuo y con ello eficientar sus recursos y fortalezas.

El concepto utilizado por Vaca, García, Palao & Rojo (2003) es una concepción utilizada en las tendencias actuales de gestión en las cual los dos ejes principales de una organización inteligente son las personas como motores del aprendizaje acorde con el ritmo que actualmente se enfrentan, donde el cambio es la regla y la estabilidad es la excepción. En este mismo enfoque la estructura de la organización deben de considerar la implementación de formas organizativas que promuevan el desarrollo de una mayor iniciativa, creatividad y aprendizaje por parte de todos los miembros de la organización.

Con todo lo anterior como se puede observar en los últimos tiempos se ha reconocido en las organizaciones la importancia del trabajo en equipo, conformado por personas con diferentes perspectivas y estilos de pensamiento creativo a efecto de lograr mayores rendimientos y mayor integración de esfuerzos. (García, Ochoa T., & Vargas, 2004)

Por lo que respecta a la empresa co-creativa se encuentran trabajos como (Ramaswamy & Gouillart, 2010) en donde refieren que las empresas se han esforzado durante años por construir relaciones de mayor confianza con sus Stakeholders, con la finalidad e involucrarlos de una forma más profunda en la solución de problemas, para estos mismos autores el ejemplo de la gestión participativa al estilo japonés, sociedades con los proveedores, círculos de calidad y six sigma, son ejemplos en los cuales se invita a tener un mayor intercambio de ideas.

En ese mismo sentido González (2012) advierte que la co-creación es una base fundamental en la innovación y su fuerza radica en la interacción cercana que se tiene con los clientes y que al final son los que comprarán los productos y/o servicios que son ofertados por la empresa. Lo anterior implica que exista el rompimiento de ciertos esquemas o paradigmas que son muy comunes en las empresas, como el simple hecho de tener la creencia de que todo está inventado, que lo más complejo es lo mejor, o pensar que la operación del día a día tiene prevalencia sobre una proyección a futuro.

Algunos Ejemplos de Organizaciones Co-Creativas.

Como se ha observado el hecho de considerarse una empresa co-creativa requiere todo un cambio de paradigma que van desde la forma de organizar su estructura, hasta la forma en cómo se toman las decisiones, algunos ejemplos de estas organizaciones son las siguientes:

Google.

La cultura de Google, refiere que, lo que hace verdaderamente a la empresa es su gente empleada, las cuales son personas inteligentes y decididas, para la dirección tiene un mayor valor el talento que la experiencia. Es cierto que en los empleados de Google comparten objetivos y visiones que son comunes con la empresa, sin embargo se relacionan con todo tipo de gente y se hablan cientos de idiomas, lo cual refleja el público internacional al cual le brindan sus servicios.

En Google se busca mantener una cultura abierta que se asocia a los comienzos de la misma organización, en la cual todos están dispuestos a contribuir y se sienten cómodos cuando comparten ideas y opiniones. Se pueden apreciar rasgos de una empresa que comparte el proceso de generar nuevas ideas. Por ejemplo; en las reuniones que se llevan a cabo de forma semanal, sin tomar en cuenta los correos electrónicos o al momento de compartir un café, los empleados pueden realizar preguntas de forma directa el director de la empresa Larry Sergey y a otros ejecutivos, sobre cualquier problema de la empresas o alguna otra idea que deseen compartir. (Google Inc.)

Starbucks Coffe

Starbucks se ha convertido en la empresa detallista más importante de café en todo Norteamérica y su marca se ha vuelto de las más dominantes. Para esta organización la única ventaja competitiva que tienen “es la calidad de su fuerza de trabajo”; refieren que están construyendo una empresa de clase mundial basándose en un grupo de personas que se enorgullecen y participan de los resultados que todos hacen.

La pieza fundamental de ésta estrategia es un paquete generoso y completo de beneficios para sus empleados que incluyen el aspecto de salud, las participación en acciones, un programa de entrenamiento, el apoyo al desarrollo de la carrera y descuentos en todos los productos a los trabajadores aunque estos sean de tiempo parcial.  Para Starbucks el hecho de escatimar en los recursos antes mencionados refuerza el sentido de mediocridad que inunda en otras empresas ya que sin ellos la gente no se siente ni financiera ni espiritualmente atada a su empleo. Para esta organización uno de sus principios más importantes es el hecho de que están desarrollando gente, tanto o más que el negocio del café; en Starbucks refieren que no se pueden lograr sus objetivos sin una fuerza de trabajo que esté igualmente involucrada y comprometida con el director general. (Emprendedor.com, 2004)

Toyota.

El sistema productivo de Toyota tiene como eje fundamental el “Jidoka”, el cual es un sistema productivo creado por Taiichi Ohno el cual se apoya en que sus empleados, llamados asociados, tiene un gran poder de decisión, o “jidoka” en japonés. Toyota le da la responsabilidad máxima de la calidad a quien realmente construye el vehículo, los empleados se vuelve capaces de encontrar defectos y determinar las mejoras necesarias, incluso antes de que el vehículo esté terminado.

Este poder de decisión también significa que tiene un gran incentivo para hacer las cosas bien a la primera, por eso los asociados de Toyota son especialistas en resolver problemas, tienen una mentalidad emprendedora y están capacitados en una gran variedad de habilidades (Toyota México, 2013).

Como es de observarse de los casos antes expuestos, los empleados de estas organizaciones juegan un papel muy importante en el desarrollo de las mismas, sus opiniones, su toma de decisiones, es fundamental en el logro de los objetivos que se han planteado en la empresa, en otros casos, los co-participes pueden ser los clientes, proveedores e incluso la competencia (Nissan-Renault), sin embargo como ya se mencionó, esto requiere un cambio de paradigmas en la forma en cómo la organización tradicional realiza sus actividades.

¿Cómo lograr ese cambio? 

En primer lugar se debe entender la existencia de viejos y muy arraigados paradigmas en la dirección de las empresas, consistentes en la subsistencia de un enfoque tradicional en la forma en cómo dirigir a la organización, en la cual, las funciones que se dan hacia el interior de la misma cuentan con las siguientes características. Ver tabla 1.

1

Tabla 1.- La organización tradicional.

Como se puede observar en la tabla 1, en la organización tradicional; el poseedor de  la información y consecuentemente concentrador del conocimiento, es la dirección general, sin embargo las organizaciones modernas requieren, pero sobre todo exigen de nuevas prácticas que van desde el punto axiológico y desde luego administrativas hasta la innovación y puesta en práctica de nuevos productos, en donde los empleados no son  únicamente  receptores de la información y responsables de  cumplir una instrucción, sino por el contrario son los impulsores de las nuevas ideas.

Sumado a lo anterior, se ha concebido históricamente que los factores del proceso productivo constituidos por   la tierra, el trabajo y el capital, eran suficiente para satisfacer las necesidades de las organizaciones, sin embargo con el paso del tiempo esa idea quedo atrás, sobre todo con la aparición de nuevas tecnologías y procesos modernos, en la actualidad el éxito de una organización está sentado en la personas que forman parte de la misma, es decir en el talento humano que se posee. Se debe de comprender que sin las personas no existen las organizaciones y que el principal factor de la producción lo constituye el conocimiento y que mucho de este se sigue quedando en la cabeza de los empleados.

“La motivación de los empleados queda seriamente en entredicho cuando éstos no se fían          que los gerentes vayan a tomar las decisiones correctas o a comportarse con integridad. Esta falta de confianza y la consiguiente ausencia de involucramiento constituyen, en la mayoría de las organizaciones, un problema enorme y no            reconocido. Es un tema que siempre ha importado, pero ahora importa más que nunca, porque las organizaciones basadas en el conocimiento dependen totalmente del compromiso y las ideas de sus empleados” (Chan & Mauborgne, 2003).

Proceso Justo.

Gran parte de los economistas parten del supuesto que a la personas se les mueve generalmente por su propio interés, lo que se traduce en que al individuo lo que le importa son los resultados. Un ejemplo de lo anterior son las diferentes formas de incentivar que utilizan los gerentes, consistentes en otorgar sistemas de incentivos con los cuales controlan y motivan a sus empleados.

Lo anterior no sería relevante si consideramos que en la realidad, si bien es cierto que, a las personas les importan los resultados, también les importa como es el proceso con el cual se llega a esos resultados. La gente en la mayoría de los casos quiere sentir que se ha tomado en consideración su punto de vista, aún en el supuesto de que el mismo se haya desechado, es cierto lo resultados importan, pero no más que la justicia de los procesos que conducen a ellos.

En la actualidad la idea de un proceso justo no había sido tan relevante para la gerencia, ya que se ha convertido en una importante herramienta con la cual una organización busca transitar de una economía que tiene como base la producción, a otra que tiene como fundamento el conocimiento, en donde tienen un mayor peso las ideas que la innovación.

En un proceso justo se toman en consideración actitudes y comportamientos que repercuten en el desempeño; también se genera confianza que hace que emerjan las ideas de los empleados. Con lo anterior la gerencia puede alcanzar los objetivos que se haya planteado, además de conseguir la cooperación voluntaria de las personas que participan en el proceso.

Por lo que respecta al tema de la justicia es algo que ha preocupado desde los antiguos filósofos y escritores a lo largo de toda la historia, si bien es cierto que el estudio de los procesos justos inicio en la década de los 70, en un primer lugar centraron su atención en el contexto legal de la justicia, lo que se buscaba era identificar qué elementos hacían que las personas confiaran en un sistema legal, y que se acaten las leyes sin que exista coerción de por medio.  Lo que se observó es que a las personas les importaba el resultado, también es importante la justicia en el proceso en el que se obtuvo ese resultado (Chan & Mauborgne, 2003).

La idea del proceso justo viene de una necesidad humana básica, la cual consiste en que la persona, sea cual fuere su papel que desempeña en la organización  quiere que sea valorada como “humano” y no como personal o activo humano. Lo que desea el individuo es que sea respectada su inteligencia, además de desear que se tomen en cuenta sus ideas y el entendimiento de las razones que lo orillan a tomar ciertas decisiones.

“Las personas son sensibles a las señales que se transmiten a través de los procesos de                toma de decisiones de una compañía. Estos procesos pueden revelar la voluntad de la empresa de confiar en la gente y pedirles ideas o pueden mostrar lo contrario” (Chan & Mauborgne, 2003).           

Se pueden describir tres principios para un proceso justo:

El involucramiento. Consistente en alentar a los empleados a participar en la toma de decisiones que les afectan, solicitándoles sus aportes y que refuten las ideas y supuestos de los demás. Lo que da como resultado una mejor toma de decisiones por parte de la gerencia con la participación y compromiso de sus empleados.

La explicación. La cual supone que los empleados envueltos y afectados en las decisiones, comprendan el porqué de las decisiones finales. Con esto se logra que las personas tengan seguridad que los gerentes han tomado en cuenta sus opiniones y que si han tomado esas decisiones ha sido de manera imparcial y siempre en un beneficio mayor de la compañía.

La claridad en las expectativas. Una vez que se ha tomado una decisión, la gerencia establece claramente las reglas a seguir, los empleados deben de conocer los criterios con los que van a ser evaluados y cuáles van a ser las sanciones por el hecho de no cumplir con esas expectativas. Chan & Maubourgne (2003).

Es importante mencionar que el proceso justo no es el equivalente a una democracia  en el trabajo, lograr el proceso justo no es el equivalente a que el gerente pierda la facultad de tomar decisiones y determinar las políticas  y los procedimientos, lo que se busca es encontrar las mejores ideas  independientemente de la personas que provengan.

2

Figura 1.- Principios de proceso justo. Fuente: Elaboración Propia.

El proceso justo está jugando un papel preponderante en aquellas organizaciones que aspiran a tener una economía basada en una adecuada gestión del conocimiento y en ese sentido los gerentes deben comprender la importancia que tiene este proceso. A diferencia de los factores de producción tradicionales (Tierra, trabajo, capital), el conocimiento es un recurso que se encuentra encerrado en la mente humana y para que se comparta el mismo debe ser a través de un proceso en donde los empleados cooperan de forma voluntaria.

Construyendo una Empresa Co-Creativa.

Casi todas las empresas se preocupan por las opiniones que puedan tener sus clientes sobre sus productos y servicios, pero en pocas de las ocasiones la organización se preocupa por las opiniones, pero sobre todo por las experiencias de sus stakeholders (Empleados, proveedores y distribuidores).

Si bien es cierto que durante los últimos años, las organizaciones se han preocupado por tener un mayor acercamiento y así generar una mayor confianza con sus stakeholders, sobre todo para buscar una mejor resolución a los problemas que se les presentan. Lo cierto es que el cumulo de experiencias con las que cuentan los stakeholders de una organización siguen recibiendo poca atención; lo anterior es resultado de la falta de voz y voto a la hora de tomar decisión al interior de la empresa, sin embargo es de observar que dentro de estas personas existen muchas que cuentan con ideas creativas y con un interés en involucrarse más con la organización, ya que no quieren en al igual que los clientes que se les impongan productos y servicios.

Otro punto a considerar es que el rápido crecimiento de las Tecnologías de la Información y la Comunicación (TIC), permite una mayor y mejor interactividad de las organizaciones con sus stakeholders y estos con otros distintos, lo que conlleva a que se puedan compartir con mayor facilidad sus experiencias, pero sobre todo el poder moldearlas para mejorarlas. Sin embargo al igual que en otros modelos la existencia de ejecutivos que se encuentran detrás a su época y que aún viven aferrados a la idea de un status jerárquico y a la de un control sobre la toma de decisiones al interior de la organización, constituye un obstáculo para la construcción de una empresa co-creativa.

Sin embargo algunas de las empresas han comenzado a comprender la importancia que tienen las experiencias de los colaboradores de una organización. La gestión del conocimiento no se detiene en los límites de la empresa, sino que abarca a clientes, proveedores, socios y otros usuarios externos de know-how. La gestión del conocimiento significa por lo tanto una apertura simultanea hacia afuera y adentro (North & Rivas, 2008).

Así a partir de los años 90 algunas organizaciones comenzaron a permitir la participación de algunos de sus clientes en el desarrollo de algunos de sus productos; a partir de la década pasada algunas empresas como Cisco, Dell, Procter & Gamble, Sony, Starbucks y Unilever han adoptado la co-creación de sus productos y servicios con sus clientes ya que se descubrió que es algo crucial la experiencia de los clientes sobre sus productos finales.

Los Principios de la Co-Creación.

Los stakeholders no participarán con todo su entusiasmo en la co-creación con los clientes a menos que ésta también produzca un valor para ellos. El razonamiento es sencillo, si a una persona no le conviene algo, u obtiene un beneficio, ¿Participará con entusiasmo?, inclusive hay que considerar que en un individuo puede existir  un valor psicológico, traducido en mayor satisfacción laboral, mayor sentimiento de aprecio y con ello una mayor autoestima;  otro valor netamente económico  es decir mayor sueldo u oportunidades de ascenso; mientras que para las organizaciones  el valor económico son los menores costos, mayor productividad, mayores ingresos.

La mejor forma de co-crear un valor es enfocarse en las experiencias de todos los stakeholders. En la gran mayoría de los casos la organización tradicional se enfoca en crear valores económicos, sin embargo los co-creadores exitosos, se enfocan en ofrecer experiencias placenteras a los clientes proveedores y otros stakeholders. (Ramaswany & Gouillart, 2010).

El punto medular para mejorar las experiencias es que los stakeholders jueguen un papel central en diseñar como van a trabajar entre sí; es sencillo, nuestras experiencias son producto de las interacciones que se tienen con otros individuos, colegas, superiores, subordinados, clientes, proveedores, etc. Hacia el interior de una organización cuando somos meramente receptores pasivos de información sobre los procesos diseñados por la empresa, la experiencia laboral con la que contamos no será tomada en consideración, lo que puede llevar a no desarrollar alguna actividad con toda la potencialidad que pudiera llegar  a tener por estar enriquecida con nuestra propia experiencia; sin embargo si se nos diera la oportunidad de diseñar nuestras interacciones se podría cambiar la calidad de los resultados.

No se debe considerar que el hecho de comenzar a utilizar la co-creación, signifique permitir que los stakeholders creen sus propias experiencias y con ello se desarrolle una anarquía hacia el interior de la organización, la verdad es lo opuesto a esto, la co-creación no consiste en dar una libertad total, más bien la dirección establece un camino a seguir y define los límites entre lo que un co-creador puede hacer y lo que no.

Los stakeholders deben ser capaces de interactuar directamente entre ellos. En la mayoría de la ocasiones el trabajo que se desarrolla hacía el interior de una organización tiene una característica de trabajo jerárquico, es decir la gerencia da una instrucción, la persona que la recibe encarga a alguien más que la cumpla. Con estas acciones lo que se crea es una perdida en la capacidad de diálogo entre los individuos que interactúan en la empresa. La mayoría de los problemas pueden llegar a ser complejos y sus soluciones no son tan fáciles, para poder enfrentarlas, es necesaria la participación de las personas que llegan a contar con mayor experiencia, mismas que necesitan escuchar y ver los problemas de primera fuente para buscar la mejor solución.

Las empresas deberían ofrecer plataformas que permitan que los stakeholders interactúen y compartan experiencias. Es cierto que el uso de la Tecnologías de la Información y la Comunicación, la Internet ha hecho que la comunicación entre los stakeholders sea mucho más rápida y barata, sin embargo los servicios de tecnologías de la información (TIC) con los cuales se enfocan a proporcionar la necesidades de las empresas, no ayudan a que las personas compartan sus experiencias o que tengan un conocimiento sobre los problemas y prioridades sobre otros actores del proceso.

En muchas de las ocasiones, los sistemas de planificación de la empresa EPR (Enterprise Planned Resource) no alertan a la totalidad de las personas sobre problemas que pueden afectar todo un proceso, lo que impide que se sostenga un dialogo entre todos los stakeholders que permita compartir experiencias que contribuya a una solución óptima del problema.

Con estos principios se busca que exista una mayor comprensión sobre el beneficio de una amplia co-creación con los stakeholders implica un mayor compromiso por parte de éstos que resulte en una mayor productividad y creatividad, así como una menor rotación y menores costos.

3

Figura 2.- Principios para la co-creación.

Administrando el Conocimiento Corporativo.

 Se puede hablar de dos corrientes distintas relativas a la administración del conocimiento de una organización; la primera de ellas hace una analogía entre la gestión de la información con el propio cumulo de conocimientos que los individuos de una organización pueden llegar a tener, mientras que la otra teoría considera propiamente a lo que es la administración de las personas.

En la primera categoría los encargados de la administración del conocimiento, son expertos en el uso de programas informáticos o en la teoría de los sistemas. Para estos profesionales, los conocimientos son objetos que en una primera instancia se pueden identificar para después procesar en un sistema de información. Este tipo de profesionales en nuestra actualidad han tenido un gran crecimiento y se encuentran estrechamente relacionados a las nuevas soluciones de la tecnología de la información. Los grandes despachos de consultoría organizacional se mueve en este campo y la administración del conocimiento se basa el software complejos como son (CRM, Consumer Relationship Management) para administrar sus relaciones con los clientes, o lo que se encuentran en la administración de cadenas de suministro (SCM, Suply Chain Management) o de gestión de recursos empresariales (ERM, Enterprise Resource Management). La base de todos estos procesos es la tecnología.

En este tipo de administración de conocimientos que se apoya en la informática y en la comparación de bancos de información, consisten en la búsqueda de relaciones entre variables. Sin embargo su problema radica que los datos que pueden encontrarse almacenados, no son todo el conocimiento de la organización.

La segunda teoría es en la que se encuentran los profesionales del campo de la administración, la psicología, la sociología, la filosofía y la teoría de la organización. Para ellos el conocimiento únicamente se puede obtener a partir de procesos que tienen que ver con capacidades humanas dinámicas y las competencias del individuo, así como sus comportamientos que cambian de forma continua.

En este caso se trata en construir sistemas de información que permitan a las personas de la organización compartir tanto información como experiencias personales y grupales. En este tipo de sistemas, las personas, sus necesidades, sus experiencias, se encuentran antes que cualquier sistema informático.

El día de hoy la administración del conocimiento es uno de los puntos de vista críticos en la adaptación, supervivencia y la competitividad de las organizaciones, sobre todo cuando nos encontramos ante cambios cada vez más continuos. Está demostrado que la gran variedad de conocimientos que ofrece la tecnología no garantiza un mejor desempeño de las empresas. La administración del conocimiento reúne los procesos que la organización busca para crear una sinergia entre la capacidad de procesar los datos e informaciones y la capacidad innovadora de las personas.

De la administración del conocimiento a la capacitación del conocimiento.

A últimas fechas se ha observado que la administración del conocimiento trae consigo procesos que en la mayoría de los casos con incontrolables y que en muchos de ellos una administración rígida de los mismos implica una barrera para un adecuado desarrollo de estos. A lo anterior deben de sumarse las barreras individuales para la creación del conocimiento como las creencias personales o procesos de asimilación y adaptación.

Para superar las limitaciones antes referidas se hace hincapié en el proceso de capacitación del conocimiento, es decir el conjunto general de actividades de la organización que afectan de forma positiva a la generación del conocimiento. Así se busca que la creación y utilización del conocimiento en las empresas sea el medio para alcanzar una ventaja competitiva.

Los cinco elementos que facilitan la creación del conocimiento son los siguientes:

  1. Inculcar la idea del conocimiento con visión y hacer mapas del mundo en que viven las personas, del mundo en que deben vivir y del conocimiento que deben y buscar crear.
  2. Administrar las conversaciones entre las personas, buscando una participación activa, reglas de bajo las cuales se va a dar la interacción partiendo de cinco principios:
  1. Compartir el conocimiento tácito.
  2. Crear conceptos.
  3. Justificar conceptos.
  4. Construir prototipos.
  5. Nivelar el conocimiento
  1. Movilizar a los activistas del conocimiento, que deben de ser los catalizadores de la creación del conocimiento, así como los que debe coordinar las iniciativas de los integrantes de la organización.
  2. Construcción de un contexto adecuado para la creación de conocimiento, con un buen diseño y cultura organización, dando los espacios para compartir las experiencias.
  3. Globalizar el conocimiento local.

Resumiendo, no es suficiente el administrar el crecimiento de una organización, sino que también es necesario ampliar la capacidad del aprendizaje, difundiéndola entre todos los miembros de la organización, buscando que los conocimientos obtenidos, se traduzcan en resultados para que la empresa sea productiva y rentable, que agregue un valor para las personas, las organizaciones y para el cliente.

Como se puede observar, en la actualidad el conocimiento que poseen los integrantes de una organización es un activo muy importante para el posicionamiento de la empresa en un mercado cada día más competido, el papel que juegan las personas será preponderante en el éxito o fracaso de la organización.

Una Organización Inteligente. 

Como se ha observado a lo largo de este trabajo, el adecuado manejo del conocimiento que poseen las personas, será un factor determinante para el logro  de las metas que sean planteadas por la empresa, sin embargo este conocimiento no surge de manera espontánea,  se requieren de procesos empleados por la gerencia de la organización que permitan hacer emerger de la mente de los individuos que participan en el proceso  todas y cada una de la experiencias que han vivido, en  algunos casos para  de la resolución de problemas, en otros con propuestas que permitan la innovación o mejora de los productos o servicios que ofrece la empresa.

4

Tabla 2.- Los dos sistemas de administración del conocimiento.

También es de hacer notar que la participación de las personas para compartir conocimientos y experiencias va más allá del espacio físico de la organización, la inclusión de proveedores, clientes y todos los participantes en el proceso será indispensable para que la generación de conocimientos sea integral, abarcado a todos los afectados en las actividades de la organización.

Así las características de una organización inteligente se pueden ilustrar en la siguiente figura 3:

5

Figura 3.- Características de una organización inteligente.

 

 

CONCLUSIÓN.

Los retos con los que una organización se enfrenta todos los días se vuelven más complejos, las necesidades de los clientes a satisfacer también se encuentran en un constante cambio, con todo esto las directrices que deben aplicarse hacia el interior de la empresa no pueden provenir de una sola persona, para ello es necesario la participación de todos los afectados en las actividades de la organización.

Hoy en México se habla de una reforma laboral que para muchos puede venir a coartar los derechos de los empleados de una empresa, sin embargo más allá de normas jurídicas establecidas en la ley con las que pudieran obtener beneficios económicos, las organizaciones inteligentes deben de aprovechar todo el cumulo de conocimientos y experiencias con las que cuentan no solo sus trabajadores, sino todos los individuos relacionados con la empresa. La empresa co-creativa representa una nueva lógica de hacer negocios en donde en medio de la competencia y la competitividad, la colaboración representa una gran alternativa en donde ganan todos los participantes.

A través de la historia, el conocimiento del hombre no ha emergido de procesos individuales, ha nacido de procesos de interacción con los  otros, de grandes alianzas y colaboraciones, de ahí que la alta dirección debe terminar con viejos paradigmas en los cuales las decisiones eran tomadas por una sola persona, hoy deben dar apertura de forma organizada a las opiniones y experiencias de los demás, pero sobre todo saberlas administrar y aplicar en beneficio,  no solo de la organización, sino también de sus colaboradores y la sociedad en general.

REFERENCIAS. 

  1. Carpio, I. D. (28 de Abril de 2012). Modelo de Organización Inteligente. Recuperado el Septiembre de 28 de 2013, de Universidad Nacional de Ingeniería: http://www.portaldeingenieria.com/archivos/publicaciones/usuarios//paper_-_modelo_de_organizaci_sn_inteligente_-_israel_del_carpio2323232334.pdf
  2. Chan, W., & Mauborgne, R. (2003). Proceso justo:management en la economía del conocimiento. Harvard Business Review .
  3. Chiavenato, I. (2009). Comportamiento Organizacional: La dinámica del exito en las organizaciones. México: Mc. Graw Hill.
  4. com. (2004). Starbuks Coffe. Recuperado el 29 de Septiembre de 2013, de S/F: http://emprendedor.com/site/index.php/negocios/casos/90-starbucks-coffee
  5. García, N. T., Ochoa T., L. E., & Vargas, A. D. (2004). Clima Organizacional; Promotor de la empresa creativa. Recuperado el 29 de Septiembre de 2013, de Revista Creando: http://www.hacienda.go.cr/cifh/sidovih/cursos/…de…/Climaorganizac.pd
  6. González, M. L. (23 de Agosto de 2012). Fortaleciendo la Innovación con la Co-creación. Recuperado el 29 de Septiembre de 2013, de Universidad EAFIT: http://www.eafit.edu.co/cice/emprendedores-eafit/Documents/fortaleciendo-la-innovacion-con-la-co-creacion.pdf
  7. Google Inc. (s.f.). Nuestra Cultura. Recuperado el 29 de Septiembre de 2013, de Google Empresa: https://www.google.com.mx/about/company/facts/culture/
  8. , R. L., Tejeda G., E., & Yataco T., M. (Diciembre de 2003). Las Organizaciones Inteligentes. Recuperado el 27 de Septiembre de 2013, de Red de Revistas Científicas de America Latina, el Caribe, España y Portugal.: http://www.redalyc.org/pdf/816/81660213.pdf
  9. North, K., & Rivas, R. (2008). Gestión del conocimiento: una guía practica hacia la empresa inteligente. Libros en Red.
  10. Ramaswamy, V., & Gouillart, F. (2010). Construir la empresa co-creativa. Recuperado el 27 de Septiembre de 2013, de Dialnet: http://dialnet.unirioja.es/servlet/articulo?codigo=3312408
  11. Senge, P. (1996). La Quinta Disciplina. Barcelona: Granica.
  12. Toyota México. (2013). La Mejor Herramienta para Lograr la Calidad Toyota. Recuperado el 29 de Septiembre de 2013, de http://www.toyota.com.mx/corporativo/calidad/poder-de-decision.
  13. Vaca, F. S., García, O., Palao, J., & Rojo, P. (9 de Septiembre de 2003). Rediseño de la Emrresa: Formas Organizativas para la información. Recuperado el 28 de Septiembre de 2013, de Departamento de Ingeniería de Sistemas Telemáticos – ETSIT – UPM

 

 

 

Alicia González Hernández, Guadalupe Israel Flores Ariza, Juan Luis Reyes Cruz

Universidad Autónoma del Estado de Hidalgo, Avenida del maestro # 41, Colonia Noxtongo Primera Sección, Tepeji del Río de Ocampo, Hidalgo.

Autor para la correspondencia: Alicia González Hernández

  E-mail: alygonzalez1910@outlook.com   Tel. 01771717200  Ext. 5850