OpenAI, una de las compañías de inteligencia artificial más importantes del mundo, anunció recientemente su próximo lanzamiento: GPT-4. Este nuevo modelo de lenguaje promete ser aún más poderoso que su predecesor, GPT-3, y ha generado mucha expectación en la comunidad de la IA.
Según OpenAI, GPT-4 tendrá varias novedades en comparación con los modelos de lenguaje anteriores. Una de las características más destacadas es que será aún más grande que GPT-3, que ya era un modelo de lenguaje de gran tamaño. Se espera que GPT-4 contenga cientos de miles de millones de parámetros, lo que permitiría una mayor precisión y capacidad para generar textos.
Además, OpenAI ha anunciado que GPT-4 tendrá la capacidad de procesar múltiples idiomas al mismo tiempo. Esto significa que podrá generar texto en diferentes idiomas sin necesidad de entrenamiento específico para cada uno de ellos. Esta característica podría ser muy útil para aplicaciones de traducción automática y otras tareas multilingües.
Otra novedad de GPT-4 es que se espera que tenga una mejor comprensión del contexto y la coherencia en el texto generado. Esto significa que el modelo será capaz de generar textos más largos y complejos con mayor precisión y coherencia, lo que podría tener implicaciones importantes en aplicaciones como la generación de noticias y la escritura de ficción.
Por último, OpenAI ha anunciado que está trabajando en hacer que GPT-4 sea más seguro y ético que los modelos de lenguaje anteriores. Esta es una preocupación importante, ya que modelos de lenguaje tan avanzados como GPT-4 podrían ser utilizados para generar contenido falso o engañoso. OpenAI ha dicho que está trabajando en formas de garantizar que el modelo no se utilice de manera indebida.
En resumen, GPT-4 es un modelo de lenguaje natural que promete ser aún más grande, preciso y versátil que su predecesor, GPT-3. Con la capacidad de procesar múltiples idiomas, una mejor comprensión del contexto y la coherencia, y una mayor atención a la seguridad y la ética, GPT-4 podría tener un gran impacto en la forma en que interactuamos con la tecnología en el futuro.
Hoy Jorge anunció el Hackeo de su canal RetoJorjais con casi tres millones de seguidores, un trabajo de una década fue tirado por un grupo de hackers sin escrúpulos. Lo puedes ver a través del siguiente video de su nuevo canal: Tio Coki.
Comunicado oficial sobre el hackeo de la cuenta
Comunicación con el equipo de Google
Falcony, quien es primo de Jorge dio avances sobre la recuperación de la cuenta, sin embargo, es un proceso que puede durar semanas y no hay garantías que el canal pueda regresar en las condiciones que estaba. Los videos del canal fueron borrados progresivamente por el grupo de hackers.
Sobre el hackeo de canal de Reto Jorjais
Seguridad del canal
El canal contaba con la autenticación de dos pasos de Google, lo que restringe el acceso a quién contenga la contraseña del canal sino cuenta con el código generado desde el dispositivo del propietario. Jorge afirma que no acostumbra abrir algún enlace que pueda comprometer sus datos personales y tiene conocimiento de las normas de seguridad.
En espera de la resolución de Youtube
El caso se encuentra en revisión por parte del equipo de Google pero no hay esperanzas de que el canal pueda regresar en las misma condiciones debido al daño que puede sufrir el canal en su reputación, debido a que los hackers publican contenido de dudosa procedencia, además de que los videos estaban siendo eliminados.
Por lo pronto, el canal se encuentra suspendido hasta finalizar la investigación y Jorge invita a suscribirse a su nuevo canal Tio Coki.
Si aún no sabes que es GitHub Copilot, te recomiendo darle una lectura a ¿Qué es GitHub Copilot antes de conocer como tener GitHub Copilot sin costo.
Como estudiante o profesor de una institución educativa acreditada, GitHub Education ofrece algunos beneficios, los cuales incluyen el acceso a GitHub Global Campus y tener la opción de tener GitHub Copilot sin costo. Te recomiendo que antes de aplicar, comprueba si tu institución ya está asociada.
2. Selecciona tu status académico, en tu caso será estudiante.
3. Agrega una dirección oficial de la escuela (En algunas instituciones no proporcionan correos oficiales o solo funcionan internamente, aún así, puedes aplicar).
4. Carga una prueba de tu estatus académico
Primera alternativa: Sube la foto de credencial de estudiante
Segunda alternativa: Activa la cámara para tomarte una foto con la credencial
5. Escribe el nombre de tu escuela, en seguida verás un autocomplete para seleccionarla.
6. Describe el uso que le darás a GitHub.
7. Por último, verifica que tu información sea correcta y envía los detalles de tu información.
Ya eres parte de Global Campus y tienes acceso a GitHub Copilot sin costo
Una vez que tu solicitud sea aprobada, recibirás un correo de confirmación. Las solicitudes puedes aprobarse en cuestión de minutos, horas o pocos días. Te recomiendo que tengas un poco de paciencia.
De esta forma puedes visualizar el campus, el cual te da beneficios adicionales como:
Acceso sin costo a Nube de GitHub Enterprise y GitHub Enterprise Server.
50,000 minutos de GitHub Actions y 50 GB de almacenamiento de Registro del paquete de GitHub.
2. Proporciona donde está ubicada tu institución educativa.
Con esto, puedes asociar tu escuela GitHub como una escuela Programa del Campus de GitHub. Si tienes alguna duda, con gusto podemos extender el tema para ser más preciso.
Github Copilot es un sistema de Inteligencia Artificial capaz de generar código de diferentes lenguajes de programación a través del lenguaje natural. Disponible como una extensión de VS Code, Visual Studio, Neovim y JetBrains. Creado en colaboración entre Github y OpenAI el cual fue financiado por Microsoft.
¿Cómo funciona?
Sólo necesitas escribir un comentario en el editor de código y generará el código de forma automática.
GitHub Copilot esta disponible al público desde el 21 de Junio de 2021 con un precio mensual de 10 dólares o anual de $100 dólares.
¿Cómo trabaja Github Copilot?
Es un modelo de OpenAI Codex se entrenó sobre billones de líneas de código público disponible en repositorios de GitHub, StackOverflow y otras fuentes. Probablemente, el código fuente que hemos subido a nuestros repositorios hayan ayudado a mejorar la predicción de esta herramienta. Cabe mencionar, que una de sus características principales de GitHub Copilot es que evalúa el contexto para poder sugerir código qué pueda adaptarse al proyecto.
¿Qué hay detrás de GitHub Copilot?
Copilot se soporta por un sistema de Inteligencia Artificial llamado Codex, el cual fue desarrollado por OpenAI. Codex se rige sobre GPT-3 (3rd GEN Generative Pre-trained Transformer), un Modelo autorregresivo que usa deep learning para interpretar texto de lenguaje natural. El modelo GPT-3 se entrena con casi todo el texto disponible en internet, ya que el modelo esta siendo entrenado por aproximadamente 45 terabytes de información proveniente de internet y libros que soportan 175 billones de parámetros, por lo tanto, Codex se deriva de este modelo el cual no es sólo capaz de generar texto, también puede generar código de los lenguajes más populares (Python, JavaScript, TypeScript, Ruby, Go).
Disponible sin costo para estudiantes y contribuidores de populares proyectos open source
GitHub valora la comunidad de estudiantes y creadores de Software Libre. Si eres estudiante y te gustaría participar en el programa, Aplica al Programa de Estudiantes donde podrás consultar los requisitos y empezar a ser parte del programa. Si eres un contribuidor activo de proyectos open source populares, revisa los términos para validar si cumples los requisitos. Una vez aplicado a los pasos anteriores, podrás ver el siguiente mensaje.
¡Felicitaciones! Tienes acceso libre a la herramienta por tiempo definido. No olvides que estas herramienta es un asistente y no se creó para reemplazarte. Así que debes tener cuidado si lo que te sugiere es útil para mejorar tu productividad.
Cuando estaba en la universidad escuchaba frecuentemente que una de las claves del éxito es emprender. Podía sentir el entusiasmo de esa tan aclamada libertad sin jefes que te dieran órdenes y con un horario flexible al ritmo de trabajo que tu decidas. Actualmente, puedes encontrar mucha información de como ser un emprendedor exitoso en cada rincón del internet. Pero ¿se trata de emprender por emprender? ¿Qué implicaciones tiene el emprender?
Reconozco que suena tentador de los grandes beneficios de emprender. Sin embargo, deberíamos ver el mapa completo antes de tomar riendas en esta gran aventura. Te presento cinco puntos a considerar para emprender o buscar un empleo:
Cinco criterios a tomar en cuenta antes de emprender
1. Tengo una excelente idea que revolucionará al mundo
Las ideas pueden ser buenas sin importar de quien vengan. Son interesantes cuando las escuchas y cuando te imaginas los escenarios de un éxito asegurado. Pero después de pensar en esa gran idea, viene la ejecución. Tienes que conocer el segmento donde te piensas enfocar y para eso se requiere experiencia. ¿cuentas con esa experiencia?
Otro punto importante a tomar en cuenta son tus redes de contactos. Sino la tienes, ¿tienes algún público objetivo al que le deseas ofrecer ese valor agregado? A nivel personal ¿Porqué quieres emprender antes de buscar un empleo?
La capacidad de trabajar en equipo también es crucial. Ya sea que formes un equipo de trabajo o formes parte de uno, necesitas estar acostumbrado a comunicarte y llevar un ritmo de trabajo colaborativo.
Lo que quiero llegar con todo esto, es que una simple idea que quiere cambiar el mundo no es suficiente. Tienes que hacerte las preguntas correctas para después responderlas. Sino trabajas en proyectar tu plan de trabajo, tienes el fracaso asegurado y en el peor de los casos nunca entenderás porque tu idea no fue exitosa.
No se invierte en puras ideas, se invierte en realidades
2. Networking en el trabajo
Cuando salí de la universidad de la carrera de Ingeniería en Sistemas, mi primer empleo fue en una empresa de gas. No estaba contento con mi trabajo porque, según yo, no estaba explotando mis habilidades dada mi nula experiencia en el sector laboral. Me dedicaba a dar soporte a las computadoras de la empresa, cambiaba algún cable, un mouse y así. Sentía que todo era rutinario.
En ese entonces, la empresa estaba actualizando los sistemas de Call Centers para un nuevo servicio que querían ofrecer a los clientes. Toda la gestión y el desarrollo venia hecho. Nosotros como soporte, estábamos a cargo de informar que todo estaba marchando bien. ¿Divertido, no?
Para la tarea de la capacitación, llegó Martin Esquivel. Él se encargó de capacitar al personal de Call Center y a los directivos de la empresa en la zona local. Un día le enseñé las playas de Isla Mujeres un fin de semana que nos tocó descansar. Tuvimos la oportunidad de platicar de muchas cosas, sin embargo, lo que más me llamaba la atención era su abundante experiencia en organización de proyectos.
Martín hablaba de temas que me emocionaban pero que no tenía ni la más mínima idea. Era notable su experiencia en el ramo, me puse a investigar en los tips que salían de esa conversación informal. Me dio un consejo que consideré muy valioso y que por lo tanto empecé a valorar mi empleo:
Trabaja en varias empresas antes de que quieras emprender un negocio
3. Lecciones que enseñan a emprender mejor
Martín me decía que todas las empresas tienen su forma de operar particular. De ahí lo resumí sus puntos importantes:
Las empresas crearon sistemas que les funcionan bien durante años, aprende de ellas.
Una mala decisión le cuesta dinero a una empresa. Como colaborador, aprende de ese error. Te estarías ahorrando el costo de esa mala decisión cuando crees tu propia empresa.
Conoces como funciona un equipo de trabajo de manera colaborativa. Si detectas puntos débiles en la comunicación, aprenderás a solventarlos cuando sea tu turno de crear tu propio equipo de trabajo.
Interactúa con mucha gente: Todos tienen algo que aportar en tu conocimiento. Desde un compañero de trabajo hasta tus jefes.
Crea lazos profesionales: Tu red de contactos se forma desde antes de emprender, incluso desde la universidad.
Como verás, en un trabajo puedes aprender mucho del funcionamiento interno de una empresa. Por lo tanto, tu objetivo debe ser en trabajar por los conocimientos, así no sea la mejor oferta salarial. Te meta es aprender como funciona un negocio desde adentro. También es importante buscar que te deleguen más responsabilidades. Te recomiendo que no sean empresas muy grandes porque tienen procesos muy definidos y son pocos disruptivos. Es decir, que las cosas se hacen estrictamente siguiendo el manual de otro.
4. Oportunidades de crecimiento
Las empresas llegan a ser la verdades fuentes del conocimiento ya que esto te mantiene vigente en el mundo laboral. Tu experiencia depende mucho del tiempo y los desafíos que enfrentas todo el tiempo. Como mencioné anteriormente, el salario es menos relevante en estos casos.
Un empleo no evita que vayas a eventos de emprendimiento y co-working. Trata de tomar cursos de temas que te sean relevantes para ti, nunca dejes de aprender. Capacítate en temas que aun no domines.
Te tengo un sorpresa, para emprender una idea de negocio, requieres aprender el manejo de temas fiscales, financieros, de ventas, etc. Al menos tener los fundamentos básicos en cada una de ellas. Te puedes apoyar de personas experimentadas, que pueden ser parte de tu equipo de trabajo o externos, pero es prescindible conocer esos temas para tomar decisiones informadas.
5. Tu habilidad en el ámbito financiero
Todos los recursos son limitados. A diferencia de un empleo, tienes que administrar bien lo que gastas en tu día a día. Sólo tu asumes las consecuencias de tus decisiones. La siguiente formula me encanta porque proyecta de que depende la cantidad que puedes ingresas.
Para entender mejor ese concepto, quiero poner dos casos de un emprendedor y un empleado. Un emprendedor, además de dominar las habilidades en su área debe tener la capacidad de dominar otras áreas. De tal manera que financieramente no muera a mediano plazo. Viendo la siguiente gráfica ¿a quién le va mejor financieramente?
En los ingresos del empleado podemos ver un sueldo estable que varía a razón del tiempo que le dedica al trabajo. Sin embargo, la volatilidad de sus ingresos es mínimo. En promedio tiene un ingreso mensual de 618 dólares.
El emprendedor tiene una vida más divertida. Al principio, suelen tener más perdidas que ganancias. Si eres hábil, puedes encontrar un punto de equilibrio pronto. En este ejemplo, estoy suponiendo que cobró pagos atrasados de clientes a los que les trabajó en ese meses. Entre Septiembre y Octubre tuvo una temporada baja en los ingresos pero se recupera de nuevo. Tiene en promedio un ingreso mensual de 660 dólares.
Los dos están técnicamente empatados. Sin embargo, las habilidades de negocio del emprendedor pueden hacer que sus ingresos sean mayores invirtiendo el mismo tiempo. Para ello, necesita estar aprendiendo constantemente para que un futuro pueda crear sistemas que le permita automatizar una parte de su trabajo.
Las posibilidades para que el empleado pueda incrementar sus ingresos es: invertir más tiempo en el trabajo, pedir un aumento o cambiar de empleo. Para las dos últimas opciones, necesita estar aprendiendo constantemente.
Como conclusión
El objetivo de este post es mostrar varios escenarios donde el empleo puede ser un buen lugar de aprendizaje. Si tienes un mal jefe o un mal líder, la culpa es tuya. Mi recomendación es que busques empresas que permitan desenvolverte profesionalmente. Si después de un tiempo sientes que el trabajo se vuelve rutinario, puedes pedir que te promuevan a otra área o busques nuevas oportunidades de empleo.
Si tu intención es emprender, empieza a involucrarte en eventos empresariales. Por ejemplo, en México existe la Semana Nacional del Emprendedor. Al asistir de manera presencial, tienes la oportunidad de conocer personas con tus mismas pasiones. Incluso, tienes la oportunidad de involucrarte en algún proyecto de emprendimiento. Invierte mucho en conocimiento.
Eviten llevarse por historias como las de Mark Zuckerberg, Bill Gates o Steve Jobs. En su momento, ellos tuvieron la oportunidad de explotar un mercado con grandes oportunidades y se rodearon de personas extraordinarias. Por eso, la importancia de hacer networking en cada oportunidad que se presente. Sólo me queda decirte:
Si arrancas demasiado pronto con poca experiencia, la caída será más rápida.
Espero haya sido de tu agrado esto post. Prometo que trataré de ser más constantes con mis publicaciones. Si te pareció útil te agradecería si me ayudas a compartir. Cualquier duda o comentario, con gusto leeré tus comentarios y tu feedback.
Un día vi un profesor en twitter, llamado Miguel, que se estaba quejando porque su compañero Andrés viene en un coche de los que él jamás se podría permitir. Además, tenía una casa en una zona accesible con todo lo básico. Paré la oreja cuando Miguel mencionó que ambos ganaban lo mismo.
Cabe mencionar que los dos ganan entre 15 a 20 mil pesos mensuales. En la conversación, sus seguidores mencionaron varios escenarios:
Gasta más de lo que puede acceder.
Ahorró durante muchos años antes de tener todo eso.
Recibió una herencia o vendió su patrimonio anterior antes de mudarse.
Lo que muchos no saben es que Andrés tampoco tiene mucha suerte y estaba en la misma posición que Miguel. Pero Andrés recurrió al endeudamiento. Así es, a esas instituciones que todo mundo corremos cuando los escuchamos. Sin embargo, es la única alternativa para tener las cosas si en verdad te hacen falta.
Andrés estuvo evaluando pros y contras. Su primera opción era ahorrar y cuando tuviera el monto completo se iba a disponer a comprar su coche y posteriormente su casa. La mejor alternativa terminó siendo el endeudamiento.
Financiamiento del coche
Existen una infinidad de concesionarias que ofrecen financiamiento de 2 o más años. No veo imposible que una persona con un sueldo superior a 15 mil no pueda acceder a un tipo de financiamiento similar.
Resulta que a Andrés le gustó un modelo Ford, se llama Figo 2018. El cual tiene un precio de $ 198,400.00 con pago al contado.
Pero Andrés necesitaba el carro con urgencia porque tenía que llevar a su hijo a la escuela y a su esposa Luisa a la estación de autobuses para ir a trabajar. Andrés estuvo de suerte porque la concesionaria ofrecía un financiamiento por 24 meses a tasa cero.
Como vemos en la tabla, Andrés pagó $ 7,291.00 mensuales durante 24 meses. Lo que le permitió acceder al automóvil y ahorrarse un gran costo en transporte.
Conseguir casa a través de una hipoteca
Luisa, gana un sueldo similar al de su esposo. Sin embargo, ella gasta aproximadamente $ 5,000.00 en gastos de viaje y alimentación porque su lugar de trabajo está a una hora de su casa. De los $ 10,000.00 mensual que le queda, junta su sueldo con el de Andrés para pagar la hipoteca.
¿A que clase de hipoteca pudieron acceder? Una que sea, de acuerdo a sus posibilidades de pago. Ellos pudieron acceder a un crédito hipotecario a 20 años.
De acuerdo a la tabla de amortización de este conocido banco, ellos hacían un pago aproximado de $ 7,269.00 mensuales contando los seguros y comisiones del banco.
Con estos gastos si sumamos los $ 7,269.00 + 7,291.00, mensualmente pagan $ 14,560.00. El sueldo mensual de Andrés y Luisa son de $ 25,000.00, descontando los $5,000.00 que Luisa gasta en transporte. Mensualmente les queda $ 10,440.00 para sus gastos diarios.
Tener en cuenta que el pago del coche es por dos años, esperando que tenga una vida útil de 5 años. Una vez, terminen de pagar el coche, la única deuda será la hipoteca.
Conclusiones
A raíz de todo esto, ¿las deudas son buenas o malas? Depende del uso que le des. Andrés y Luisa no tenían ahorros que les permitieran obtener las cosas de contado.
Sino hubieran recurrido a la deuda. Andrés hubiera gastado un 30% más en transportar a sus hijos y hacer las diligencias del hogar. Luisa hubiera sumado otros $ 1,000.00 pesos a los costos de transporte. Sino hubieran solicitado la hipoteca, estarían pagando un renta de $ 5,000.00 pesos con la diferencia que en 20 años la casa no sería suya.
No existen deudas buenas o malas. Sólo son instrumentos que se deben de usar de manera inteligente. Sino necesitas endeudarte, no lo hagas.
Olvidé comentar que Miguel es una persona que presume unas lindas fotos de sus viajes con su novia. Todos los recursos son limitados, incluso el dinero que llega a nuestras manos. Eso no quiere decir que Andrés y Laura no puedan costearse un viaje después de pagar su coche. Todo se puede, pero debemos saber lidiar con esa limitación financiera con una buena gestión de nuestros recursos.
Espero que este post te haya sido de utilidad. Si deseas aportar algo más al artículo, puedes exponerlo en la caja de comentarios. Si te gustó, te ruego me ayudes a compartir.
En el tutorial anterior, generamos una página web de hoteles que extrae una lista de habitaciones directamente con la fuente. Sin embargo, esto genera problemas en tiempos de respuesta para el usuario final. Sin embargo, llega a ser muy pesado para nuestro sitio web y para nuestros visitantes. Así que, nuestro objetivo es resolver la optimización de tiempos de respuesta del sitio con Web scraping automatizado.
Conociendo el proyecto
Como punto de partida, te comparto el código fuente del script para hacer scraping un sitio web de hoteles. El cual nos servirá de referencia:
El procedimiento funciona a través de una llamada síncrona, el sitio web finalizará una vez que el script obtenga los datos del portal de TripAdvisor.
De acuerdo a la línea de tiempo, desde que el usuario solicita información al sitio, éste recorre varios nodos haciendo varias peticiones para resolver el resultado final. Entre sus inconvenientes de este método, nos encontramos:
El hecho de recorrer varios nodos, hace que el tiempo de respuesta sea más largo. Se genera una dependencia. Cuando se rompe en algún punto del camino, la experiencia del usuario sería poco agradable.
Existiría una sobrecarga en nuestro servidor porque cliente -> servidor -> fuente para después, fuente -> servidor -> cliente. Al hacer esto todo el tiempo, hará que consuma muchos recursos del sistema cada vez que entra un nuevo usuario.
Regresando a las dependencias. No podemos controlar lo que hacen terceros. Si el equipo de desarrollo de TripAdvisor se le ocurre actualizar las vistas de sus sitios, inmediatamente nuestra página queda fuera de línea.
Todos esos casos pueden llega a ser críticos si llegaran a suceder. Lo más importante es poder ofrecer una excelente experiencia de usuario con los datos obtenidos de terceros. Para esto, requieres una serie de pasos para mejorar la salud del sitio web por medio de la automatización.
Uso de una base de datos
Para resolver estas observaciones, necesitamos cambiar un poco la estructura del proyecto. El objetivo será reducir los tiempos de respuesta para obtener las habitaciones más populares. Para conseguirlo, haremos uso de una base de datos que contenga la información necesaria para la consulta directa.
Con la información en la base de datos, el acceso a los datos es directo. Por lo tanto, el usuario no tiene que esperar a que el sitio haga un scraping a la página fuente. Para tener esa información actualizada necesitas un script que obtenga esos datos periódicamente para mantenerlo actualizado.
Pasos para realizar el refactoring del sitio web
Es hora de hacer refactoring al código que le hará scraping a la página de hoteles. Para esto necesitamos trabajar en varias etapas.
1. Generar la base de datos
Para la estructura, solo requieres una tabla que guarde la relación de habitaciones obtenidas. En mi caso, crearé un par de tablas para agregarle un poco más de información.
De acuerdo al diagrama anterior, existen dos tablas que nos servirán para este propósito:
Cities: Esta tabla servirá para conocer las ciudades que queremos extraer. Cada registro cuenta con una url de cada fuente.
Rooms: Guarda todas las habitaciones obtenidas del script, segmentados por ciudades.
// File: connector.php
// Source: https://secure.php.net/manual/en/function.mysqli-connect.php
$mysqli = mysqli_connect(DB_HOST, DB_USER, DB_PASS, DB_NAME);
// Verifica si la conexión es correcta
if (!$mysqli) {
echo "Error: Unable to connect to MySQL." . PHP_EOL; echo "Debugging errno: " . mysqli_connect_errno() . PHP_EOL;
echo "Debugging error: " . mysqli_connect_error() . PHP_EOL; exit;
}
Si no existe un problema, la conexión de base de datos debería correr sin algún inconveniente.
3. Generar el scraper dinámico
// scraper.php
require 'simple_html_dom.php';
require 'connector.php';
require 'utils.php';
// Crea un objeto de funciones genéricas
$utils = new Utils;
// Antes de obtener nuevos datos, elimina los anteriores
mysqli_query($mysqli, "TRUNCATE TABLE `rooms`");
// Lista las ciudades: 1 => Isla Mujeres, 2 => Cancún, 3 => Playa del Carmen, 4 => Tulum
if ($result = $mysqli->query("SELECT id, source FROM `cities`")) {
/* Recorre todas las ciudades obtenidas para hacer scraping de esas ciudades */
while ($row = mysqli_fetch_assoc($result)) {
// Asigna valores a variables locales
$city_id = $row['id'];
$city_source = $row['source'];
// Crea el objeto DOM de la url fuente con el contenido
$html = file_get_html($city_source, false, null, 0);
// Todos los items de habitaciones fuente tienen esta clase
$wrap_hotels = $html->find('div.prw_meta_hsx_responsive_listing');
// Recorrer todos los contenedores de las habitaciones fuente
foreach($wrap_hotels as $element) {
// Guarda en variables locales, los datos específicos de cada habitación.
$hotel_name = $element->find('.property_title', 0)->plaintext;
// ¿Recuerdas la clase utils? Necesito quitar el formato MX$0.00 y convertirla a numérico
$hotel_price = $utils->format_price_to_int($element->find('.price', 0)->plaintext);
// También necesito obtener la url correcta con esta función prediseñada
$hotel_image_url = $utils->get_standar_image_url($element->find('.inner', 0)->attr);
$hotel_href = $element->find('.photo-wrapper a', 0)->href;
// Guardar esta habitación a la base de datos
mysqli_query(
$mysqli,
"INSERT INTO `rooms` (city_id, name, price, image_url, href)
VALUES ('$city_id', '$hotel_name', '$hotel_price', '$hotel_image_url', '$hotel_href')"
);
}
}
/* Liberar consulta */
$result->close();
}
/* Cerrar conexión */
$mysqli->close();
Como primer paso, recorrer la tabla ciudades. Indicará al algoritmo a que ciudades debemos acceder para obtener las habitaciones más populares. El algoritmo para extraer datos funciona igual, con la diferencia que almacenamos los resultados en la tabla rooms.
4. Programar el scraper para mantener los datos actualizados.
Lo que buscamos es delegar la funcionalidad de obtener y generar las habitaciones de manera independiente. Todos los resultados que extrae, serán almacenados en una base de datos. Cuando el usuario, haga una petición, consultará en la BD en vez de hacer el proceso de extracción directamente. Esto ayudará a administrar mejor los recursos del servidor.
Teniendo en cuenta esto, pasamos al proceso de programar tu script para que se repita en un periodo x de tiempo. La clave es mantener el proceso de generar datos de manera aislada como explico en el siguiente diagrama:
En la automatización, debes manejar los tiempos en base a tu criterio. En este proyecto, haré que el scraper se ejecute cada hora. Con este tiempo, considero, que es suficiente para mantener los datos actualizados sin tener que consumir demasiados recursos de mi servidor.
Este fue mi criterio:
Si extendiera más el tiempo como a 4 horas, correría el riesgo de tener un mayor desfase de precios o incluso mostrar habitaciones que no están disponibles.
Cuando reduces el tiempo, cada 20 minutos. Estaría empleando recursos del servidor cada 20 minutos para iniciar un proceso de actualización.
Otra variable a considerar, es la cantidad de información que necesito procesar. Si necesitara obtener habitaciones de toda la zona sur del país, tendría que extender un poco más los lapsos de tiempo.
Para la automatización, usaré cron porque mis servidores están basados en Unix (Linux, FreeBSD, Mac OS, etc.). Si usas servidores windows, puedes configurar una tarea programada.
Ejecutar el scraper cada hora de manera indefinida
Sino estás muy familiarizado con la sintaxis de cron, te recomiendo este post: Introducción a tareas programadas con cron. Ahí podrás ver como se define el formato de cada tarea.
5. Actualizar el llenado del template
Debido a que no hacemos scraping cada vez que el cliente solicita un listado de habitaciones. Accederemos directamente a las habitaciones almacenadas en la tabla rooms.
En realidad, no cambió mucho la sintaxis de como esta estructurado el template. La ventaja de realizar este refactoring es:
Evitamos la dependencia directa del sitio original. Cuando realizan cambios en sus vistas, podemos actualizar nuestro scraper para adaptarlo a la nueva vista. Mientras tanto, la disponibilidad de nuestros datos no se compromete.
Al tener los datos en nuestros propios servidores, hace que las rutas sean más cortas.
Para probar como funciona el proyecto final, te dejo el enlace para que puedas descargarlo: Proyecto Final
Consideraciones especiales
La finalidad de este tutorial es conocer el funcionamiento de un scraper. Puedes usar un Framework PHP que te facilitaría más la vida. Sin embargo, prefiero evitar las distracciones que nos desviaran de nuestro propósito.
Puedes optimizar más el proyecto por medio de carga asíncrona en el lado del cliente, por medio de ajax.
Recuerda que tenemos habitaciones de cuatro ciudades diferentes. En nuestro proyecto, podemos agregar un dropdown que cargue dichas ciudades.
Espero te haya sido de utilidad este tutorial. Cualquier comentario que pueda complementar este post, sería bienvenido. Te agradecería mucho si nos ayudas a compartir este contenido para poder ayudar a otras personas.
Las tareas programadas tienen usos muy comunes en la automatización de sistemas que requieren ejecutarse cada x tiempo sin intervención del usuario. Su función es agendar los procesos que deseas ejecutar en tu sistema. Existen diferentes programadores de tareas, en este artículo nos enfocaremos en tareas programadas usando cron.
Cron es un demonio utilizado para ejecutar tareas programadas como copias de seguridad, actualizaciones, envíos de notificaciones periódicas, etc. Esta basado en sistemas operativos tipo Unix (Linux, FreeBSD, Mac OS, etc.). A los procesos que se ejecutan por lapsos de tiempo se les conocen como cron jobs.
Crontab
Sus comandos están escritos en un archivo crontab. En linux, puedes encontrar ese archivo en /etc/crontab. Crontab verificará la fecha y hora en la que se ejecutara el script. Todo lo realizará en modo background. Podemos gestionar los crontabs de la siguiente manera:
crontab -l
Para editar
crontab -e
Borra el crontab del usuario
crontab -d
Entendiendo el formato de las crontabs
La tareas cron tienen una sintaxis que ayuda a definir en que intervalos de tiempo se ejecutarán los scripts. Su formato cuenta con 5 espacios seguidos del script a ejecutar.
¿Qué son los asteriscos?
En muchos ejemplos verás un asterisco (*) en lugar de un número. Esto representa todos los números posibles en esa posición. Por ejemplo un asterisco en la posición de hora, haría trabajar un script cada hora.
Ejemplos de configuración de algunas tareas programadas
Tareas cotidianas
Esta tarea se ejecutara cada minuto, todo el tiempo
* * * * * [comando]
Lo traducimos como:
Sobre cada minuto
Repetir cada hora
Todos los días del mes
En todos los meses
Funcionando todos los días de la semana
Todos los domingos la 1:15 el script realizará un respaldo de las BD de mis sistemas
15 1 * * 0 [comando]
Se traduce como:
A partir del minuto 15
Desde la 1 de la madrugada
Todos los dias del mes
En todos los meses
Sólo los domingos
Necesito hacer un respaldo el día 1 y el día 16 de cada mes a las 23 horas
0 23 1,16 * * /usr/tasks/backup.sh
Descrito como:
En el minuto 0
De las 11 de la noche
Del día 1 y 16 del mes
Para todos los días del mes
Puede ser cualquier día de la semana
Por intervalos de tiempo
Arranco un script entre días laborales de lunes a viernes para enviarles un correo a las 9 de la mañana a los clientes deudores del crédito del banco
0 9 * * 1-5 /usr/tasks/sent_notification.sh
Se traduce como:
Empezando en el minuto 0
Desde 9 de la mañana
Todos los días del mes
Sobre todos los meses
Lunes a Viernes
Necesito verificar cada 15 minutos, en horario de oficina, que clientes nos han estado pagando puntual para acumular sus puntos.
Solución 1. Por medio de listas separadas por comas (,):
0,15,30,45 9-5 * * * /usr/tasks/add_coupons.sh
Solución 2. Interpretado por la diagonal (/) para crear intervalos:
0/15 9-5 * * * /usr/tasks/add_coupons.sh
Caracteres especiales
Los caracteres especiales nos ayudan a crear comandos más elegantes:
* => Selecciona todos los valores de un campo.
– => Selecciona rango de valores (por ejemplo 1-6).
, => Selecciona valores específicos (por ejemplo 1,3,5 en el nivel de días de la semana, es decir los lunes, miércoles y viernes ).
/ => Selecciona incrementos a partir del primer valor (por ejemplo 0/15 que es cada 15 minutos comenzando desde el minuto 0 -> 15, 30 ,45).
Palabras reservadas de cron
Cron al igual que otros lenguajes de programación también maneja palabras reservadas para facilitar su eso. Esto debido a que no necesariamente necesitamos ejecutar en tiempos demasiado específicos:
@reboot Ejecuta cada vez que se inicia el servidor
@yearly/@annually Se ejecuta una vez al año equivalente a 0 0 1 1 *
@monthly Se ejecuta una vez al mes equivalente a 0 0 1 * *
@weekly En el primer minuto de la primer hora de la semana equivalente a 0 0 * * 0.
@daily/@midnight diario, a las 12:00A.M equivalente a 0 0 * * *
@hourly al primer minuto de cada hora equivalente a 0 * * * *
Por ejemplo. Necesito verificar quienes no han pagado sus deudas pendientes y realizar el cargo al final del día.
@daily /usr/tasks/payments.sh
También podemos ejecutar scripts de diferentes lenguajes directamente. En este caso verifico quienes aún no terminaron de registrarse en mi red social para enviarles una invitación. Hago la validación cada hora.
Cómo verás, hay un sin fin de formas de sacarles provecho a las tareas programadas. Mis recomendaciones como desarrollador:
Evalúa correctamente el tiempo que necesitas para correr un script. Tener un script corriendo cada hora, cuando se necesita conocer la cantidad de deudores al final del día, no es recomendable. Si bien es cierto que funcionará, consumes recursos innecesarios.
Las tareas programadas se corren en modo background, por lo tanto el usuario no interactúa con el sistema y no puede ver algún tipo de error. No esta demás hacer un script de pruebas para validar que todo este funcionando correctamente.
Una herramienta estupenda que funciona como demo, es el sitio de Crontab Guru donde puedes probar todo tipo de configuraciones antes de usarlo en tus scripts de producción.
Espero te haya servido este artículo. Si te fue útil, te agradecería que nos ayudes a compartirlo. Quedamos atentos a tus comentarios que ayude a enriquecer este tema. Estaré entusiasmado de poder interactuar contigo.
En el pasado tutorial, hicimos una réplica exacta de una página con file_get_contents and cURL. Sin embargo, de esta manera no hay forma de sacarle mucho provecho. Corres el riesgo de que te reporten por plagio o confundan tu proyecto por una página de pishing. El objetivo de este tutorial es obtener las habitaciones más populares de Isla Mujeres con PHP Simple HTML DOM Parser y llenar nuestro template que hemos diseñado previamente con Bootstrap.
La fuente de información será TripAdvisor, uno de las guías más completas para cualquier viajero. Cada vez que accedamos a nuestro proyecto, un script leerá inmediatamente los hoteles más populares según la URL que le hayamos indicado.
Cabe recordar que este es un ejercicio de carácter educativo. No busco promover el plagio de información, sin embargo, existen usos totalmente válidos para esta técnica.
Simple HTML DOM te permite extraer y manipular de manera fácil el html de un sitio web. De la misma manera como lo harías con jQuery o Javascript. Por eso es deseable estar familiarizado con el manejo del DOM en javascript.
2. Extraer la información de los hoteles con Simple HTML DOM
// Call dependency
require 'simple_html_dom.php';
// Create DOM from URL or file
$html = file_get_html('https://www.tripadvisor.com/Hotels-g150810-Isla_Mujeres_Yucatan_Peninsula-Hotels.html');
Hasta ahora, hemos extraído el contenido donde se listan los hoteles en TripAdvisor. Este contenido lo almacené en una variable $html para extraer la información que necesitamos. Hasta ahora tenemos una copia exacta de la página de referencia.
3. Identificar las secciones relevantes
Si necesitas obtener una sección del sitio de manera nativa, puedes hacerlo por expresiones regulares usando la función preg_match_all. Sin embargo, es una forma un poco más compleja porque requieres estar creando constantemente expresiones regulares. En este momento es donde Simple HTML DOM hace la magia. Lo que obtuve en la variable $html puedo manipularlo como un objeto a través de funciones definidas por la librería.
Aclarado esto, lo que necesitamos es identificar la sección que deseamos extraer del sitio de TripAdvisor. Esto es sencillo de realizar con el inspector de tu navegador. En mi caso utilizaré el inspector de Google Chrome.
Con la herramienta de selección de chrome vamos buscando patrones. En el ejemplo anterior encontramos tres contenedores principales en la plataforma: .header, .page y .footer. En este ejemplo, pondremos atención en el contenedor .page donde esta la lista de las habitaciones que nos importan.
4. Extraer la lista de hoteles de la sección identificada
En este punto lo que queremos es buscar un patrón que identifique como obtener el listado de hoteles. Con el inspector identifiqué las secciones que me interesan:
Como podrás observar, hemos encontrado un patrón que comparten todas las contenedores de cada habitación. Todas los contenedores tiene una clase llamada .prw_meta_hsx_responsive_listing. Ahora lo que necesitamos, es obtener toda la información que contiene cada caja con esa clase.
// De todo el contenido, solo necesito la lista de los contenedores de hoteles
$wrap_hotels = $html->find('div.prw_meta_hsx_responsive_listing');
Por medio de la función find, estamos obteniendo todos los contenedores que tienen la clase .prw_meta_hsx_responsive_listing. El resultado es un array que contenido la información interna de cada contenedor. Si haces un echo, el resultado sería algo similar a este:
Array de los hoteles obtenidos en TripAdvisor
Este array es una muestra de como se guarda la información. Por suerte, con las funciones de Simple HTML DOM nos facilita más las cosas.
5. Identificar las información específica de cada hotel
Ahora lo que necesitamos es extraer los datos específicos de cada hotel. Lo que nos interesa obtener según el template es:
Nombre del Hotel
La foto del hotel o departamento
Precio
Enlace para entrar a los detalles
Hacemos el mismo ejercicio pero en vez de inspeccionar toda la página de hoteles, inspeccionaremos solamente lo que esta en los contenedores que obtuvimos previamente de la clase .prw_meta_hsx_responsive_listing.
Datos del hotel del div contenedor
Identificadas las clases que contienen cada dato que necesitamos, lo primero que necesitamos es recorrer ese array para seleccionar el nombre, precio, imagen y enlace.
// Recorrer la lista de todos los hoteles obtenidos
foreach($wrap_hotels as $element) {
// Código para trabajar cada elemento
}
Tenemos en la variable $element los datos de cada uno de los hoteles, procedemos a obtener la información específica:
// Recorrer la lista de todos los hoteles obtenidos
foreach($wrap_hotels as $element) {
echo "<b>Nombre del Hotel</b> <br />";
echo $element->find('.property_title', 0)->plaintext . '<br />';
echo "<b>Precio</b> <br />";
echo $element->find('.price', 0)->plaintext . '<br />';
echo "<b>Url de la foto del hotel</b> <br />";
print_r($element->find('.inner', 0)->attr) . '<br />';
echo "<b>Enlace donde están los detalles del hotel</b> <br />";
echo $element->find('.photo-wrapper a', 0)->href . '<br />' . '<br />' . '<br />';
}
Aplicamos el mismo método find para leer el contenido de cada clase. Para obtener el nombre del hotel y el precio usé el atributo plaintext, para que no me muestre etiquetas html en mis resultados. Así funcionan estos atributos especiales:
Para más información, puedes consultarlo en la documentación oficial. El resultado sería como en la siguiente lista.
Nombre del Hotel Hotel Rocamar Precio MX$2,053 Url de la foto del hotel Array ( [class] => inner [style] => background-image:url(https://media-cdn.tripadvisor.com/media/photo-l/0d/6b/4f/fb/hotel-rocamar.jpg); ) Enlace donde están los detalles del hotel /Hotel_Review-g150810-d1477852-Reviews-Hotel_Rocamar-Isla_Mujeres_Yucatan_Peninsula.html
Nombre del Hotel Hotel Plaza Almendros Precio MX$971 Url de la foto del hotel Array ( [class] => inner [data-lazyurl] => https://media-cdn.tripadvisor.com/media/photo-l/08/7c/7c/9e/pool–v7986578.jpg ) Enlace donde están los detalles del hotel /Hotel_Review-g150810-d616791-Reviews-Hotel_Plaza_Almendros-Isla_Mujeres_Yucatan_Peninsula.html
6. Caso especial. Como obtener la url de la imagen
/**
* @param Array $attr_image Atributos en forma de array
* @return Image URL
*/
function get_standar_image_url($attr_image) {
// Inicia la variable vacía
$url_image = '';
// Si el atributo es style
if (isset($attr_image['style'])) {
// Recuerda que el style nos da el formato así background-
image:url(URL_DE_IMAGEN)
// Usé substr para remover esos caracteres y solo dejarme la url como resultado
// Otra forma es usando regex
$url_image = substr($attr_image['style'], 21, -2);
// Nos proporciona bien la url
} else {
// Aquí nos da la url directa
$url_image = $attr_image['data-lazyurl'];
}
return $url_image;
}
Con la función que tenemos, vamos a realizar un refactory al código donde estábamos trabajando. Lo que haré por cuestiones prácticas es guardar los resultados en otro array que le llamaré $list_hotels con los valores que necesitaré para llenar mi template.
// Creo una nueva variable que guardara los datos que necesito para mi template
$list_hotels = array();
// Recorro el item original
foreach($wrap_hotels as $element) {
$hotel = new stdClass(); // Es más elegante usar objetos
$hotel->name = $element->find('.property_title', 0)->plaintext;
$hotel->price = $element->find('.price', 0)->plaintext;
$hotel->image_url = get_standar_image_url($element->find('.inner', 0)->attr);
$hotel->href = $element->find('.photo-wrapper a', 0)->href;
array_push($list_hotels, $hotel);
}
Ya obtuvimos el array que nos interesa, ¿ahora que sigue? Podemos trabajar con esa lista para llenar los datos del template del proyecto.
7. Llenar el template del proyecto
Con la ayuda de la variable $list_hotels, vamos a reemplazar nuestros cajas estáticas de nuestro proyecto local que tenemos alojados en CodePen. Tomaremos una caja donde muestra la información de nuestro proyecto.
Puedo suponer que ya sabes que haremos con este proyecto. Vamos a repetir esa caja varias veces por medio de un loop. Nos caería de lujo usar foreach para este propósito, quedando de la siguiente manera:
Una vez que recorras el array $list_hotels que generamos resultado del web scraping. Tendremos este grandioso resultado:
A partir de ahora, tenemos un listado de 30 hoteles de Isla Mujeres en nuestro sitio web. Lo podemos mostrar en nuestra página web. También pudimos hacer scraping a las páginas destino de cada hotel, pero haría mucho más complejo este tutorial. Si deseas probar como funciona, te dejo el resultado de este ejercicio:
Cuando necesitas extraer un sitio con demasiada información, la librería te llega a limitar. Para aumentar esa limitación, puedes entrar dentro de la librería simple_html_dom.php y modificar la constante MAX_FILE_SIZE. Más información
En el anterior punto no siempre es recomendable modificar fragmentos del código. En especial para los que trabajamos con composer, porque las actualizaciones borran tus cambios.
Hicimos dos foreach: El primero tuvimos que obtener datos específicos para guardarlo en otro array y en el segundo caso para usar ese mismo array para llenar las cajas de nuestro proyecto local. Para optimizar el rendimiento, debimos llenar las cajas desde que obtuvimos los datos de los hoteles sin necesidad de crear otro array. Pero se justifica en el siguiente punto.
Intentar leer la página fuente cada vez que accedemos a nuestro proyecto, es un problema grave de rendimiento. Porque tendría que estar leyendo el sitio fuente cada vez que un usuario accede a nuestro sitio. Lo ideal es separar el script donde realizamos el scraping y guardarlo en algún medio de almacenamiento en nuestro servidor como una base de datos y con una tarea programada. El sitio accedería a la información previamente obtenida por el script. Es un tema que abordaremos en el siguiente tutorial.
El código fuente es funcional a la fecha de la publicación. Sin embargo, la página web fuente puede realizar cambios en sus vistas. Es recomendable revisar que el script este constantemente actualizado. Si es necesario, repetir el proceso de inspección del código fuente de las páginas de referencia.
Por favor, cuéntame que tal te pareció este tutorial. Si te fue de utilidad, ayúdanos a compartir este contenido para poder ayudar a más personas. Si tienes alguna duda u observación, estaré encantado de leerte e intercambiar opiniones para enriquecer este post.
El uso de estas técnicas te pueden ser de mucha utilidad. Con un fragmento de código puedes recorrer un sitio web de la misma forma que se presenta en un navegador. Puedes guardarlo en una base de datos o mostrarlo en alguna parte de tus sitios. Si deseas conocer más sobre sus usos, te recomiendo leer Introducción al Web Scraping.
Elección de Fuentes para los Primeros pasos de Web Scraping
Como primer objetivo necesitas leer un sitio web externo para después embeberlo en tu propio proyecto, de eso trataré en esta entrada. En el Home quiero obtener los hoteles ubicados en Isla Mujeres desde TripAdvisor.
Lo primero que haremos es ir a la página de tripadvisor.com y realizar una búsqueda de hoteles de Isla Mujeres. No voy a seleccionar un Check In o Check Out porque a mí solo me interesa mostrar la relación de hoteles.
Una vez realizada la búsqueda, obtendrías resultados similares a la siguiente imagen. Se trata de un listado de hoteles de Isla Mujeres. Lo que nos interesa es tener la url con los parámetros necesarias que nos despliegue solo hoteles de isla mujeres.
Extraer un sitio con file_get_contents
Vamos a utilizar la url que obtuvimos para indicarle a nuestro script lo que queremos mostrar. Primero crearé el archivo scraper.php donde contendrá el script que leerá el sitio contenido de la URL señalada.
// Lee la url y obtiene el contenido en una variable
$html = file_get_contents("https://www.tripadvisor.com/Hotels-g150810-Isla_Mujeres_Yucatan_Peninsula-Hotels.html");
// Se imprime lo que obtuvimos en esa variable
echo $html;
Funciona, pero no siempre llega a ser así. Es necesario tener activado la directiva allow_url_fopen en el php.ini de tu servidor. Sino sabes como activarlo, te recomiendo que te des un clavado en este artículo sobre como activar allow_url_fopen en tu servidor.
Cuando trabajas de manera local, no parece ser un problema. Sin embargo, no todos los servidores dan privilegios de modificar sus archivos de configuración. Así que otra alternativa de poder tener los resultados en nuestro sitio es a través de cURL.
Extraer un sitio con cURL
cURL es una herramienta que te permite obtener información de distintos protocolos, además puedes hacer envíos de parámetros GET y POST. Su uso es tanta común que llega a ser utilizado en los crawlers para recolectar información de la web.
Por esas razones cURL es mi función predilecta porque me permite hacer conexiones. Incluso podría entrar a un área protegida por medio de mecanismos de autenticación.
La pregunta es ¿cómo hacer scraping para obtener un resultados similar al anterior? Realmente es muy sencillo, si bien requieres de más código para definir lo que quieres obtener realmente, lo podríamos encapsular en una función como lo haré en el siguiente ejemplo.
// Definimos la función cURL
function get_content_with_curl($url) {
// Inicial la función url
$ch = curl_init($url);
// No verifica el peer del certificado. Opcional
curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, false);
// Establece la sesión
$data = curl_exec($ch);
// Cierra la sesión
curl_close($ch);
return $data;
}
// Llamo la función previamente definida. La guardo en una variable por si deseo manipularla
$html = get_content_with_curl("https://www.tripadvisor.com/Hotels-g150810-Isla_Mujeres_Yucatan_Peninsula-Hotels.html");
// Imprimir la cadena recibida
echo $html;
Realmente lo que hicimos fue crear una función que nos permitiera obtener un sitio web, tal como lo lee un navegador, por medio de cURL. Con esto ya tenemos el sitio original en nuestro sitio.
Resumiendo, el Scraping se basa en leer datos de otras fuentes. Aquí solamente leímos la web tal como está en la versión original, sin embargo, no le podríamos dar mucho uso de esta manera. Cada vez que requiera obtener datos de otras ciudades, solo llamaría esta función definida previamente. Para ser más selectivo en el contenido que obtenemos de cada sitio, es necesario desarrollar funciones más detalladas, sin embargo no es el objetivo de este post.
Como aclaración, hasta este punto aún no podemos darle un uso éticamente aceptable a esta técnica. Copiar contenido de otras fuentes y usarlo indiscriminadamente en tus sitios podría ser contraproducente. En el próximo post, vamos a especificar qué secciones necesitamos de los resultados que nos da TripAdvisor para nuestros proyecto con estilos propios.
Espero te haya gustado este post y/o te haya sido de utilidad, te agradeceríamos mucho si nos ayudas a compartir. Si tienes algún comentario, no dudes escribirnos en la caja de comentarios. Siempre estaremos ansiosos de intercambiar ideas con nuestros lectores.