top of page

Resultados de la búsqueda

66 elementos encontrados para ""

  • Brinda soporte remoto a TV Android con la aplicación ISL Light

    Nuestra última versión de ISL Light para Android incluye soporte para Android TV. Esto significa que puede conectarse de manera remota a una caja de TV de Android con el software de escritorio remoto ISL Online, ver la interfaz de Android TV y hacer anotaciones para señalar el problema a su usuario y ayudarlo a resolverlo. La nueva característica de la aplicación ISL Light para Android podría ser muy interesante para cualquier empresa que ofrezca servicios de televisión digital. De acuerdo con un proveedor de servicios, ISL Online puede permitir que los operadores del proveedor controlen de forma remota la caja de Android TV para solucionar problemas técnicos. Aunque Android TV tiene una interfaz fácil de usar, tarde o temprano un usuario promedio se topa con un problema técnico que no puede resolver por sí mismo. En ese punto, acuden en busca de ayuda al centro de llamadas de su proveedor. Un operador de tecnología podría guiar a un cliente por teléfono o enviar un técnico al sitio, pero sin duda el uso de software de escritorio remoto es la forma más eficiente y rentable de resolver tales problemas. ¿Cómo funciona? Para poder recibir soporte remoto en un televisor Android, el usuario necesita instalar la aplicación ISL Light para Android en su televisor. El procedimiento es prácticamente el mismo que cuando instalas la misma aplicación en un teléfono o tableta Android. Instale la aplicación ISL Light en Android TV 1. Encienda su Android TV y vaya a Google Play 2. Busque la aplicación ISL Light e instálela. Reciba soporte remoto 1. Abra la aplicación ISL Light en su Android TV 2. Escriba el código de sesión que un operador técnico le dice por teléfono 3. Haga clic en "Unirse a la sesión". En este punto, el técnico remoto se conectará a su televisor y podrá ver su pantalla. 4. Muestre al técnico el problema que ha encontrado en su TV Android Ofrezca soporte remoto a un usuario de Android TV 1. Ejecute el software remoto ISL Online, ya sea de escritorio o móvil 2. Inicie una nueva sesión de soporte remoto y pase el código de sesión único a su cliente. 3. Vea la pantalla remota de Android TV y haga anotaciones para guiar a su cliente hacia la resolución de problemas. Domotes. Distribuidor mayorista de la solución de soporte remoto de Isl Online. Para demostraciones envíe un correo a ventas@domotes.com o diligencia nuestro formulario de contacto. Traducido al español del blog de Isl ONline #Soporteremoto #Soporteremotoandroidtv #IslOnline

  • Protecciòn contra el ransomware

    Agregar Seguridad Sincronizada a su red, es muy fácil Al conectar su endpoint y su red, Synchronized Security le brinda una idea clara de lo que sucede en su red todos los días, identificando las amenazas al instante y luego automáticamente hace algo al respecto cuando ingresa, con Security Heartbeat ™ y Synchronized App Control su empresa detiene el ransomware ¿Cómo funciona la seguridad sincronizada? El Security Heartbeat ™ comparte la inteligencia sobre la salud y las amenazas entre su protecciòn ednpoint Intercept X y su firewall perimetral Sophos XG para proporcionar un control del estado de la salud de su red de un vistazo, así como la respuesta automática en tiempo real a las amenazas. Cuando un dispositivo Heartbeat se pone ROJO, las reglas dinámicas en el dispositivo firewall XG pueden cortar automáticamente ese sistema de otras partes clave de la red para evitar el movimiento lateral o la fuga de información. Además, al compartir información de las aplicaciones en la red entre nuestros productos de punto final y el firewall, la característica de Control de aplicación sincronizada le permite tener visibilidad y control total sobre todas las aplicaciones que se ejecutan en su red, incluso las fraudulentas, obscuras o personalizadas. Usted podra bloquear las aplicaciones que no quiere, y priorizar los que si usa. ¿Cómo habilita la seguridad sincronizada tan fácilmente? Implemente Intercept X junto con e un dispositivo ffirewall de la serie XG a su red ... Es así de simple. Para obtener más información, descargue este breve resumen mantenga su red bajo control. conocerá cual es el problema de los firewall actuales para ofrecer un control de aplicaciones efectivo, como solucionarlo y como agregar la seguridad sincronizada a su red. Si desea realizar una demostración puede enviarnos un correo a ventas@domotes.com y le contactaremos con uno de nuestros canales en su región. O a atreves de nuestro formulario de contacto. Articulo traducido al español del sitio web de Sophos} #Seguridadsincronizada #Sophos #XGFirewall #interceptx #firewall #antivirus

  • Las 18 mejores razones en 2018 para elegir Vembu Backup and recovery - Infografía

    Los datos son un activo invaluable que debe protegerse en cualquier circunstancia. Esta infografía lo ayudará a comprender por qué varias empresas han elegido Vembu: Si quieres recibir una demostración de Vembu o mas información puedes diligenciar el siguiente formulario o da clic a lrealizar la descarga de la solución en este link. #Vembubackup #BackupparaVmware

  • Balanceo de carga de la máquina virtual con el clúster de conmutación por error de Hyper-V

    Además del aspecto de alta disponibilidad de las plataformas de virtualización, el otro gran beneficio de los hipervisores de virtualización actuales es el medio eficaz para equilibrar la carga y distribuir eficazmente los recursos. Los Clústeres de conmutación por error de Microsoft Windows Server Hyper-V proporcionan una plataforma poderosa no solo para la alta disponibilidad sino también para la programación de recursos. Al determinar dónde vivirán los recursos de la máquina virtual y en qué host se proporcionan, existen varios mecanismos que se pueden usar para lograr esto de manera efectiva. En esta publicación, veremos cómo determinar efectivamente el equilibrio de la carga de recursos con Clústeres de conmutación por error de Windows Server Hyper-V. También veremos varias herramientas de Hyper-V que permiten configurar y configurar las preferencias sobre cómo se realiza el equilibrio de carga de host y cómo se colocan las máquinas virtuales de Hyper-V en el clúster de Hyper-V. Herramientas de equilibrio de carga de clúster de Hyper-V Existe una amplia variedad de medios para controlar eficazmente el equilibrio de carga de clúster de Hyper-V. Esto se puede hacer de forma más automatizada utilizando herramientas pagas o utilizando medios manuales para configurar la asignación de recursos en clústeres de Hyper-V, de forma que las máquinas virtuales estén ubicadas en hosts específicos con varios casos de uso. Examinaremos más detalladamente las siguientes formas de controlar el equilibrio de carga del clúster: System Center Virtual Machine Manager (SCVMM) Equilibrio de carga de máquinas virtuales Propietarios preferidos Posibles propietarios Reglas Anti-Afinidad Usando los mecanismos y herramientas anteriores, los administradores de Hyper-V pueden controlar de forma efectiva la distribución de recursos y el equilibrio de carga en los clústeres de Hyper-V. System Center Virtual Machine Manager (SCVMM) System Center Virtual Machine Manager es básicamente lo que usted pensaría en el mundo de Hyper-V como el producto "vCenter" de Hyper-V que permite la gestión centralizada del nivel de centro de datos del entorno de Hyper-V. Con esta administración centralizada de clústeres de Hyper-V, los administradores tienen la capacidad de garantizar que los recursos de la máquina virtual del clúster de Hyper-V estén balanceados en el clúster de Windows Server Hyper-V. SCVMM tiene el mecanismo integrado denominado optimización dinámica que balancea automáticamente los recursos de la máquina virtual Hyper-V en todo el clúster. Microsoft System Center Virtual Machine Manager puede equilibrar automáticamente los recursos de Hyper-V Dynamic Optimization puede realizar esta optimización de carga de máquina virtual aprovechando los clústeres de host de Hyper-V habilitados para Live Migration. Con Live Migration, Dynamic Optimization puede mover máquinas virtuales de un host a otro para equilibrar los recursos del clúster de host. Algunas cosas a considerar cuando se mira la optimización dinámica: La migración en vivo debe estar habilitada en clústeres de host de Hyper-V Está configurado en el nivel de grupo de host La agresividad de las migraciones de optimización dinámica es configurable (el valor predeterminado es que cada VM de 10 minutos se equilibra con agresividad media) Sin la agrupación de failover en su lugar, simplemente configurar la optimización dinámica en un grupo de host no tiene ningún efecto Debe tener dos o más nodos de clúster Puede realizar una optimización ad-hoc a pedido para clústeres de host individuales mediante el uso de la acción optimizar hosts. No debe usarse junto con Virtual Machine Load Balancing en Windows Server 2016 Optimización dinámica Hyper-V con SCVMM Equilibrio de carga de máquinas virtuales Virtual Machine Load Balancing, también conocido como nodo fairness, es una nueva característica de Windows Server 2016 que permite optimizar los hosts de Hyper-V en un clúster de conmutación por error al identificar hosts comprometidos y VM que migran en vivo desde hosts comprometidos a hosts infrautilizados en el grupo Algunos elementos a tener en cuenta en el equilibrio de carga de máquina virtual en Windows Server 2016: La migración en vivo se utiliza Se respetan las políticas de conmutación por error, como anti-afinidad, dominios de falla y otras. La presión de la memoria VM y la utilización de la CPU son algunas de las métricas utilizadas por el equilibrio de carga de VM para tomar decisiones de migración La característica es personalizable y se puede ejecutar bajo demanda Los umbrales de agresividad se pueden configurar No debe usarse junto con la optimización dinámica en SCVMM Equilibrio de carga VM cuando se agrega un nuevo host Hyper-V al clúster (Imagen cortesía de Microsoft) Hyper-V Preferred Owners La configuración de preferred owners preferidos en el nivel de máquina virtual en Failover Cluster Manager permite básicamente establecer una afinidad con un determinado host de Hyper-V para una máquina virtual particular en un escenario de failover de nodo. Cuando los roles se vacían de un host en particular o si un host se bloquea en el clúster, se presta atención a la configuración de propietarios preferidos al decidir a qué host se migrará el recurso de máquina virtual. Si un administrador inicia manualmente una migración en vivo de una máquina virtual y especifica manualmente el host, esta configuración no se considera. La forma en que Microsoft describe la funcionalidad de Propietarios preferidos de Hyper-V básicamente como una lista de prioridades de cómo el clúster migrará las máquinas virtuales en una conmutación por error. Esto también anula la selección de un host según el host que aloja la menor cantidad de máquinas virtuales. Los propietarios preferidos de Hyper-V permiten dar prioridad a hosts Hyper-V específicos durante la migración tras error Hyper-V Possible Owners Hyper-V Possible Owners proporcionan otro aspecto para controlar el equilibrio de carga durante la conmutación por error. De manera predeterminada, los clústeres de Hyper-V consideran todos los nodos como posibles candidatos de failover para alojar máquinas virtuales. Sin embargo, puede haber casos de uso en los que desee que un host particular de Hyper-V nunca se considere como un nodo host para una máquina virtual en una conmutación por error. Al configurar los posibles propietarios, usted tiene la capacidad y el control sobre qué nodos se consideran incluso durante las situaciones de conmutación por error. Establecer políticas avanzadas, incluidos posibles propietarios en Hyper-V Hyper-V Anti-Affinity Otra herramienta para controlar dónde viven los recursos de máquina virtual en el clúster de Hyper-V es mediante el uso de reglas anti afinidad. Anti-afinidad es un mecanismo que permite mantener ciertas máquinas virtuales en hosts separados. Un caso de uso común para las reglas anti afinidad es mantener las máquinas virtuales del controlador de dominio en hosts Hyper-V separados, ya que no desearía que un solo host de Hyper-V desconectara su dominio completo si todos los DC residen en un solo host. El uso de anti afinidad impide que las máquinas virtuales se migren automáticamente al mismo host si aún quedan disponibles otros hosts en el clúster. Sin embargo, en el caso de que solo haya un único host de Hyper-V disponible, la alta disponibilidad de las máquinas virtuales tendría prioridad sobre una regla anti afinidad para mantener múltiples controladores de dominio fuera del mismo host. Entonces, en ese caso, el clúster no tendrá en cuenta la antiafinidad. Esta funcionalidad está controlada por la propiedad AntiAffinityClassName. La Anti-Afinidad afecta el algoritmo utilizado para determinar el nodo de destino utilizando la siguiente metodología: El nodo preferido primero se considera y encuentra el siguiente nodo preferido Cuando se selecciona el siguiente nodo, se consideran las reglas anti afinidad para ver si el nodo de destino es un destino posible y puede pasar al siguiente nodo si el primer nodo seleccionado se ve afectado por la falta de afinidad. Si los únicos nodos disponibles albergan grupos anti afines, el clúster de Hyper-V ignora la antiafinidad y selecciona el nodo como destino Conclusión. Los clústeres de Microsoft Windows Server Hyper-V proporcionan algunos mecanismos y herramientas realmente potentes que permiten controlar eficazmente el comportamiento del equilibrio de carga y la ubicación de recursos en el clúster de Hyper-V. Estas herramientas incluyen el uso de System Center Virtual Machine Manager y la función de optimización dinámica que equilibra automáticamente los recursos entre los nodos del clúster. Otras herramientas para la ubicación de recursos incluyen Virtual Machine Load Balancing que se encuentra en Windows Server 2016 Hyper-V, así como otras herramientas de ubicación de recursos que incluyen Preferred owners,Possible Owners y Anti-affinity. Al aprovechar estas herramientas para configurar la ubicación de recursos, los administradores de Hyper-V pueden configurar el equilibrio de carga en un clúster de Hyper-V para que tenga lugar de manera que se adapte a casos de uso personalizados y a sus necesidades específicas de máquina virtual. Vembu Backup and recovery brinda información permanente para que los clientes se mantengan al tanto de buenas practicas y novedades en los diferentes ambientes de recuperación. Elaborado por brandon lee y traducido al español del blog oficial de vembu Siga nuestros feeds de Twitter y Facebook para conocer nuevos lanzamientos, actualizaciones, publicaciones interesantes y más. #Vembu #Vembubackup #Balanceodecarga #failovercluster #hyperv #SCVMM #systemcenntervirtualmachinemanager #clusterdehyperv

  • Funciones y limitaciones del servidor de copia de seguridad de Microsoft Azure

    Las organizaciones de hoy buscan hacer que su infraestructura de TI sea lo más resistente posible, protegiendo contra fallas de aplicaciones, fallas de máquinas virtuales y fallas en el sitio. Las mejores prácticas para la protección de datos siguen la regla de copia de seguridad 3-2-1 . Esta metodología de mejores prácticas sugiere tener (3) copias de copias de respaldo ubicadas en al menos (2) diferentes tipos de medios de respaldo, con al menos (1) respaldo almacenado fuera del sitio. La mayoría de las organizaciones de hoy están utilizando la nube pública como parte de sus estrategias de copia de seguridad de rutina cuando se trata de cargas de trabajo de producción. La infraestructura de nube pública permite a las organizaciones compensar el tremendo gasto de capital requerido para construir su propio sitio de DR y el gasto de infraestructura involucrado con tal empresa. Microsoft Azure ofrece una oferta muy rentable para que las organizaciones hagan una copia de seguridad de su infraestructura en la nube de Azure utilizando Azure Backup. Con la actualización 1 del servidor de copia de seguridad de Microsoft Azure, los clientes ahora pueden utilizar Azure Backup Server para realizar copias de seguridad de las máquinas virtuales de VMware. ¿Qué capacidades tienen los clientes para respaldar las máquinas virtuales VMware con Azure Backup Server? ¿Cómo encaja esto en el plan BCDR de una organización? ¿Qué es el Servidor de copia de seguridad de Microsoft Azure (MABS)? Azure Backup Server es una solución simple y robusta que permite a los clientes integrar su metodología de respaldo con la nube pública de Azure. Proporciona una alternativa a la cinta para las organizaciones que buscan hacer una copia de seguridad de su infraestructura mediante copias de seguridad de discos e integración en la nube. Azure Backup Server proporciona protección de datos que no depende de la ubicación. Con Azure Backup Server puede proteger sus aplicaciones críticas para la empresa, como Microsoft Sharepoint, Microsoft Exchange, Microsoft SQL Server y otras. También puede realizar una copia de seguridad de servidores Windows y máquinas virtuales Azure que se ejecutan en la nube Azure. Sin embargo, como novedad con la Actualización 1, las organizaciones pueden comenzar a proteger las máquinas virtuales (VM) que también se ejecutan en la plataforma de VMware. Los datos de respaldo se pueden replicar en la bóveda de servicios de recuperación en Azure. ¿Qué es una bóveda de servicios de recuperación? Una bóveda de Servicios de recuperación es una entidad de almacenamiento en línea en Azure que se utiliza para almacenar datos como copias de seguridad, puntos de recuperación y políticas de respaldo. Hay un límite de 25 de estos por región. Características y capacidades de un servidor de copia de seguridad de Microsoft Azure: Gestión de almacenamiento rentable: modelo de almacenamiento de pago por uso para el almacenamiento de Azure y sin costo para el almacenamiento en las instalaciones Integración en Azure: Azure Backup Server como es de esperar que esté completamente integrado con Azure Escalado ilimitado: construido sobre la nube Azure, tiene el potencial de escalar casi ilimitadamente Múltiples opciones de almacenamiento: almacenamiento local y almacenamiento geo redundante Transferencia ilimitada de datos: sin cargo por los datos que se transfieren Cifrado de datos: transmitir y almacenar datos de forma segura en la nube pública de Azure Protección incorporada contra el ransomware: a menudo el ransomware se dirige a los archivos de copia de seguridad. Azure Backup Server tiene protección para evitar eso Copias de seguridad coherentes con la aplicación: las copias de seguridad consistentes con la aplicación son necesarias para las aplicaciones que necesitan ser consistentes transaccionalmente, como Microsoft SQL Server Capacidades de retención a largo plazo Soporte de Microsoft Azure Backup Server para VMware Backup El servidor de respaldo de Azure de Microsoft presenta las siguientes capacidades para las copias de seguridad de VMware: Copia de seguridad sin agente Integración con VMware vSphere Server para que las máquinas virtuales se detecten automáticamente y las copias de seguridad se realicen desde el plano de administración centralizado Detección de máquinas virtuales a nivel de carpeta y protección de esas carpetas de máquina virtual a través de vCenter Server Almacenamiento independiente: protección de máquinas virtuales almacenadas en el almacenamiento del clúster, NFS o DAS La recuperación de máquinas virtuales incluye recuperación granular. Tanto las máquinas virtuales completas como los archivos y carpetas individuales se pueden recuperar utilizando la recuperación a nivel de elemento para máquinas virtuales de Windows Servidor de copia de seguridad Microsoft Azure - Protección de máquinas virtuales VMware La nueva función de Azure Backup Server que permite proteger las cargas de trabajo de las máquinas virtuales de VMware permite a las organizaciones hacer copias de seguridad de las máquinas virtuales de VMware junto con las cargas de trabajo de Hyper-V. Los pasos para utilizar Azure Backup Server para realizar copias de seguridad de las cargas de trabajo de la máquina virtual de vSphere son los siguientes. Habilite una conexión segura entre Azure Backup Server y vCenter Server (SSL) Esto incluye descargar el paquete de certificados de vCenter Server e importar el certificado al almacén de certificados en el servidor de copia de seguridad de Azure. Cree un nuevo usuario con el conjunto de privilegios de vCenter Server, a través de un rol especial, para permitir realizar una copia de seguridad de las máquinas virtuales de VMware en Azure Backup Server. Los privilegios necesarios se muestran en la tabla a continuación Agregue la conexión de vCenter Server al servidor de copia de seguridad de Azure Seleccione las máquinas virtuales de VMware para proteger con Azure Backup Server: esto se hace mediante la metodología de grupos de protección que permite crear grupos de protección para proteger las cargas de trabajo. Se pueden configurar para que se repliquen en el almacenamiento de Azure Servidor de copia de seguridad de Microsoft Azure: buenas características con limitaciones Si bien Microsoft Azure Backup Server ofrece una buena solución con una gran integración en la nube pública de Azure, sin embargo, hay algunas limitaciones que debe tener en cuenta: Dos copias de seguridad por día a la bóveda de servicios de recuperación Puede hacer copias de seguridad de SQL Server cada 15 minutos, otras cargas de trabajo solo cada 1 hora Límites a los puntos de recuperación en el disco (64 para servidores de archivos, 448 para servidores de aplicaciones) Sin soporte a respaldo en cinta Límite de 25 bóvedas de servicios de recuperación por región El soporte de Linux para recuperación de archivos granulares es limitado Para muchos, las limitaciones mencionadas anteriormente podrían ser un factor decisivo. Especialmente cuando se piensa en las limitaciones de las copias de seguridad que se sincronizan con la nube pública de Azure, tener limitaciones en el número de copias de seguridad sincronizadas es ciertamente una limitación que vale la pena señalar. Aunque muchos buscan la posibilidad de enviar copias de seguridad a entornos en la nube, todavía es muy conveniente tener la capacidad de utilizar cintas en el archivo de datos. Además, la falta de RPO más bajos para cargas de trabajo generales es una limitación importante para muchas organizaciones que desean RPO más bajos para otros servidores además de Microsoft SQL Server. Protección de datos más potente Algunos pueden encontrar que el caso de uso para Microsoft Azure Backup Server se adapta a su entorno. Sin embargo, existen soluciones más potentes, como Vembu BDR Suite, que superan las limitaciones mencionadas anteriormente con Microsoft Azure Backup Server. Vembu permite copias continuas fuera del sitio ya sea al servidor Vembu CloudDR o al servidor DR externo en el sitio. Todas las copias de seguridad de Vembu pueden configurarse para ejecutarse a intervalos de 15 minutos independientemente de la aplicación protegida El servidor Vembu BDR proporciona soporte de copia de seguridad en cinta El sistema de archivos VembuHIVE permite transformar rápidamente las copias de seguridad instantáneamente en cualquier formato que necesite el cliente Conclusión Microsoft Azure Backup Server ciertamente ha madurado como producto, ahora incluye soporte para copias de seguridad de VMware. La integración con Microsoft Azure es, por supuesto, muy estrecha con el producto y tiene muchas características y funcionalidades notables que muchos pueden usar en sus entornos. Sin embargo, como una solución de protección de datos primaria, Microsoft Azure Backup Server tiene muchas limitaciones, como se señaló, que las organizaciones querrán considerar antes de implementar en sus entornos. Vembu BDR Suite proporciona una solución moderna a todas las limitaciones encontradas en Microsoft Azure Backup Server y permite a las organizaciones cumplir verdaderamente con su estrategia de respaldo 3-2-1 de frente. Esto incluye copias de seguridad para entornos en la nube, servidores en las instalaciones, así como soporte de copia de seguridad en cinta. Traducido del blog de Vembu #AzureBackup #SQLServer #Microsoftazure

  • Desenmascarando los 3 mejores mitos sobre DLP

    Mientras que el aumento de las regulaciones de protección de datos como GDPR en Europa y HIPAA , FISMA y NIST en los EE. UU. Ha llevado a una mayor conciencia de la necesidad de herramientas de prevención de pérdida de datos para garantizar el cumplimiento, muchas empresas todavía dudan en emplearlas porque caen. víctimas de algunos de los mitos comunes que plagan el software DLP desde su infancia. Aquí están los tres cargos más comunes presentados contra las herramientas de DLP y porque son infundados: 1. Productividad asesina Un mito que ha perseguido persistentemente a DLP es su impacto negativo en la productividad. Se lo culpa por hacer que las tareas generalmente sencillas requieran mucho tiempo, lo que dificulta la eficiencia de los empleados y aumenta sus frustraciones. Como todos los mitos, esta información errónea comenzó a partir de un grano de verdad: es un remanente de antiguas insuficiencias de las herramientas de DLP de primera generación que, como cualquier nueva tecnología que se acaba de desarrollar, todavía era difícil de implementar en sus etapas iniciales. Sin embargo, uno no juzga las capacidades de un Windows 10 basado en las cualidades de un Windows XP. Desde que DLP se desarrolló por primera vez como una forma de combatir el robo y la pérdida de datos hace más de una década, ha madurado, volviéndose cada vez más granular y abordando problemas cada vez más complejos relacionados con los datos que enfrentan las organizaciones. Sus políticas ahora se pueden ajustar para abordar la estructura y las necesidades particulares de una empresa, permitiendo múltiples niveles de autorización para usuarios y departamentos, así como para computadoras y dispositivos. Estas opciones para personalizar los derechos de los grupos y de los individuos eliminan los problemas una vez planteados por las reglas de toda la compañía aplicadas indiscriminadamente a todos los empleados. 2. Las pequeñas empresas no se benefician de DLP Como soluciones complejas, las herramientas DLP a menudo se consideran el tipo de software implementado solo por grandes organizaciones que tienen muchas más amenazas internas de miedo y mucha más información en juego que las PYME. Sin embargo, regulaciones como el GDPR han dejado en claro que el tamaño de la empresa no importa cuando se trata de sus estrictos requisitos de protección de datos. Después de todo, en la era de Internet, la cantidad de datos que procesa una empresa no refleja necesariamente su tamaño. Una startup de dos personas puede desarrollar una aplicación exitosa utilizada por millones de usuarios en todo el mundo. Otras categorías de información confidencial tampoco están relacionadas con el tamaño de la organización. Dependiendo del campo, los datos relativos a nuevos productos, investigaciones o datos financieros están en riesgo sin las políticas y herramientas adecuadas de protección de datos. Y aunque algunas herramientas DLP pueden parecer innecesariamente complejas para las necesidades modestas de una empresa pequeña, varios desarrolladores de software DLP ofrecen opciones modulares que pueden combinarse y adaptarse a las necesidades de la organización. 3. Implementación larga y difícil Un fantasma que atormenta muchas tecnologías, las dificultades de implementación han entrado en la lista de los mayores temores de las compañías como consecuencia de los sistemas legados y las pesadas transiciones de BPM. Debido a que las herramientas DLP generalmente se implementan en todo el sistema, las principales preocupaciones son la compatibilidad, la complejidad y el marco de tiempo necesario para implementarlas por completo. Aunque no todo el software DLP se crea de la misma manera, muchas soluciones, como Endpoint Protector , ofrecen un alto nivel de flexibilidad que garantiza que la solución esté en funcionamiento en menos de 30 días. La mayoría de las ideas erróneas sobre el software DLP se basan en problemas ahora obsoletos que han sido abordados por los desarrolladores. Como la necesidad de políticas de protección de datos se vuelve obligatoria, en muchos países por ley y en otros por sentido común, las empresas deben dejar de lado tales malentendidos y ver a DLP como lo que realmente es: una herramienta esencial para la protección de datos confidenciales dentro y fuera del empresa. Domotes sas es mayorista en Colombia de una de las principales soluciones de DLP Cososys. Facil de usar, multiples funciones para controlar la fuga de informacion. Traducido al español del blog de cososys #DLP #Cososys #HIPPA #GDPR

  • Conceptos básicos de HIPAA y El papel de DLP en el cumplimiento de la normativa

    Los datos relacionados con la salud se están moviendo cada vez más desde los registros en papel a los electrónicos, determinando los cambios en cómo las organizaciones de atención médica u otras industrias que procesan los registros de salud están administrando y protegiendo sus datos en la actualidad. Las empresas que participan de alguna manera con el uso o la gestión de la PHI (información personal de salud) de las personas deben asegurarse de proteger sus datos confidenciales contra pérdidas o fugas, siguiendo las pautas de seguridad, como HIPAA, para evitar penalizaciones. Que es HIPAA La Ley de Responsabilidad y Portabilidad de Seguros Médicos de 1996, HIPAA, brinda privacidad de datos y medidas de seguridad para proteger la información médica. La legislación está diseñada para proteger el ePHI (información médica protegida) de individuos, como números de seguridad social, números de identificación médica, números de tarjetas de crédito, números de licencia de conducir, domicilio, números de teléfono, registros médicos y otros datos críticos. En 2009, la legislación se actualizó con HITECH (Tecnología de Información de Salud para la Salud Clínica y Económica), que brinda estándares de cumplimiento adicionales a las empresas vinculadas a la atención médica. ¿Qué organizaciones se ven afectadas por HIPAA? Las organizaciones afectadas por HIPAA son aquellas que crean, almacenan, procesan, transmiten o tocan información de salud protegida de individuos. Esta legislación no solo se aplica a las compañías de atención médica, sino también a las empresas que están asociadas con ellas, como firmas de abogados, empresas de TI, empresas de contabilidad, compañías de facturación, compañías de seguros de salud, sistemas de información de gestión de salud comunitaria, etc. Lea nuestro Estudio de caso sobre un proveedor de atención médica que logró cumplir con las estrictas leyes de HIPAA para proteger los datos de los pacientes con Endpoint Protector DLP. Los puntos clave de HIPAA Las tres reglas de HIPAA: privacidad, seguridad y notificación de incumplimiento están destinadas a proteger la privacidad y seguridad de la información de salud y proporcionar a las personas ciertos derechos a sus registros de salud. De acuerdo con cms.gov : La regla de privacidad Establece estándares nacionales para cuando la información de salud protegida (PHI en ingles) puede ser utilizada y divulgada. PHI incluye información relacionada con: La condición o salud física o mental pasada, presente o futura del individuo La provisión de asistencia sanitaria al individuo El pago pasado, presente o futuro por la provisión de atención médica a la persona PHI incluye muchos identificadores comunes, como nombre, dirección, fecha de nacimiento y número de seguro social. La regla de seguridad Especifica las salvaguardas que las entidades cubiertas y sus socios comerciales deben implementar para proteger la confidencialidad, integridad y disponibilidad de la información de salud protegida electrónica (ePHI). Las entidades cubiertas deben: Garantizar la confidencialidad, integridad y disponibilidad de todos los ePHI que crean, reciben, mantienen o transmiten Identificar y proteger contra amenazas razonablemente anticipadas a la seguridad o integridad del ePHI Proteger contra usos o divulgaciones razonablemente anticipadas e inadmisibles Asegurar el cumplimiento por parte de su fuerza de trabajo La regla de notificación de incumplimiento Requiere que las entidades cubiertas notifiquen a las personas afectadas, al Departamento de Salud y Servicios Humanos de los EE. UU. (HHS) y, en algunos casos, a los medios de comunicación sobre una violación de la PHI no segura. La mayoría de las notificaciones se deben proporcionar a más tardar 60 días después del descubrimiento de una infracción. Las notificaciones de infracciones más pequeñas que afectan a menos de 500 personas pueden enviarse al HHS anualmente. Incumplimiento de datos y sanciones Un estudio reciente muestra que 2016 fue el año con el mayor número de casos de violación de HIPAA desde el año 2009. La mayoría de las causas de las violaciones de datos fueron las malas políticas de seguridad o la falta de interés en los problemas de seguridad de datos. Los correos electrónicos de phishing, violación de datos de tarjetas de crédito, computadoras portátiles robadas, fuga de datos de pacientes, etc., son solo algunos ejemplos de las principales causas del año pasado de violaciones de datos en el cuidado de la salud. Las multas por incumplimiento de HIPAA pueden llegar desde $ 50K a $ 1.5 millones por año. Cómo DLP ayuda a cumplir con el cumplimiento HIPAA En la industria del cuidado de la salud, es absolutamente necesario garantizar que la información esté segura y solo se pueda acceder según la necesidad de saber. Los registros médicos y personales no deben salir de las instalaciones del proveedor de servicios médicos o de las empresas asociadas a menos que estén encriptados o transmitidos a canales seguros y autorizados. Las soluciones de Data Loss Prevention son una gran ayuda en esa dirección. DLP permite a las organizaciones controlar y controlar el movimiento de datos. Puede escanear documentos antes de que se transfieran y bloquearlos en caso de que contengan información delicada, como números de seguro médico, números de seguridad social, direcciones, etc. Con una solución DLP, los administradores de TI pueden detectar e impedir que los usuarios envíen mensajes de correo electrónico. que podría contener PHI, detectar y evitar la copia de PHI en dispositivos de almacenamiento portátiles, obtener informes con incidentes detectados y muchas otras acciones. A continuación, presentamos un desglose de las políticas realizadas por Endpoint Protector DLP con respecto a los datos confidenciales de atención médica: Rastreo y bloqueo de transferencias de documentos que contienen medicamentos reconocidos por la FDA, firmas farmacéuticas, códigos ICD-10 e ICD-9 y léxico de diagnóstico Monitoreo y bloqueo de transferencias de información que contiene información de identificación personal: correo electrónico, dirección, número de teléfono, número de seguro social (SSN), licencia de conducir, identificación fiscal, número de pasaporte y otros Detectando y bloqueando información protegida por HIPAA en el cuerpo del correo electrónico (Outlook, Mozilla Thunderbird, IBM Lotus Notes) y datos adjuntos (Outlook, Mozilla Thunderbird, IBM Lotus, Windows Live Mail, Opera Mail y otros clientes de correo electrónico) Escanear documentos y contenido para palabras clave de atención médica específicas agregadas por los administradores de TI en diccionarios y detener transferencias en caso de que se encuentren datos confidenciales Utilizar políticas de solo informe para supervisar la actividad de los usuarios relacionada con las transferencias de datos y restringir las transferencias en función de la información descubierta Creación de listas blancas basadas en el archivo, la ubicación del archivo, el recurso compartido de red, el dominio del correo electrónico y el nombre de URL para que los empleados puedan realizar sus tareas diarias sin interrupciones Incluyendo en las políticas HIPAA otros canales de salida además del correo electrónico, tales como: navegadores web, uso compartido de archivos en la nube, mensajería instantánea, redes sociales, dispositivos de almacenamiento portátiles, recursos compartidos de red, copiar / pegar, impresoras o pantallas de impresión Además de las soluciones de prevención de pérdida de datos, las organizaciones de la industria de la salud, pero no limitadas a esto, deben tener una protección en capas, utilizando múltiples herramientas de seguridad, desde software antivirus, cortafuegos, cifrado, gestión de dispositivos móviles y otros. Sobre todo, se deben realizar auditorías y evaluaciones periódicas de riesgos (preferiblemente con auditores externos), no solo para evaluar el nivel de cumplimiento, sino también la eficiencia de las soluciones de seguridad implementadas. Traducido al español del sitio web de Cososys #DLP #HIPAA

  • XG Firewall 17.1 Ilumina la oscuridad de su seguridad IT

    Ahora XG firewall de Sophos ofrece nuevos niveles de seguridad. El auge de la nube trae nuevos riesgos y perdida de control sobre las aplicaciones y los datos. Puede solicitar su demostración de XG Firewall sin costo. Nuestro equipo de ingenieros estará gustoso de mostrar las tecnologías que han hecho de XG Firewall una de los mejores Firewall de nueva generación de la industria. El nuevo widget de Visibilidad de la aplicación en la nube proporciona una idea rápida de hacia dónde se dirigen sus datos en la nube. Esta característica convierte a XG Firewall en un Agente de seguridad de aplicaciones en la nube (CASB) para ayudarlo a identificar rápidamente las TI ocultas en la nube, alertarlo sobre comportamientos indeseables y no autorizados, y darle control de la aplicación para administrarlo en tan solo unos pocos clics. CASB (Cloud Access Security Broker) - Visibilidad de la aplicación en la nube Con la enorme cantidad de servicios de almacenamiento y aplicaciones en la nube disponibles, las organizaciones requieren visibilidad para exponer cualquier riesgo oculto relacionado con qué servicios se utilizan y dónde se almacenan los datos. XG Firewall v17.1 ofrece Shadow IT. descubrimiento y visibilidad de las aplicaciones en la nube como la primera fase de nuestra solución CASB. Esta característica incluye un nuevo widget en el panel de Control que proporciona información valiosa sobre servicios y aplicaciones en la nube como nuevas, sancionadas, no autorizadas y permitidas. También proporciona información sobre el tráfico entrante y saliente por tipo. Analizar informes detallados sobre aplicaciones y servicios en la nube que proporcionan detalles sobre usuarios, tráfico, cargas y descargas con opciones para clasificar, filtrar o controlar el tráfico de aplicaciones o servicios individuales. Más desgloses proporcionan información adicional sobre el tráfico de usuarios individuales y el uso de datos para cada aplicación en la nube, para que pueda identificar patrones de uso arriesgados de manera rápida y fácil. Puede ver en el siguiente vídeo mas características de seguridad o leer el detalle de las nuevas funciones descargando el documento en el siguiente enlace Nuevas características de XG Firewall #CASB #XGFirewall #Sophos #CloudAccessSecurityBroker

  • Virtualización vs contenedor: pasado, presente y futuro

    Hay oleadas de viralidad cuando se trata de tecnologías emergentes. Los contenedores están practicando surf en la ola de punto de quiebre. Lo que significa que están aquí con una entrada explosiva y están aquí para quedarse. Esta entrada sucedió hace un par de años. Entonces, ¿por qué sigo hablando de esto? Porque, todavía hay ciertas preguntas que prevalecen como: ¿Cuál es el futuro de los contenedores y máquinas virtuales? ¿Cuánto tiempo ha pasado? Para que los principiantes se mantengan al tanto, comencemos por lo básico: ¿qué son los contenedores?. Vamos a encontrar respuestas a estas tres preguntas ahora, por supuesto en el orden inverso. Para comprender los Contenedores, debemos comprender la virtualización. Cuando emula una computadora en la parte superior de una computadora real utilizando un software de hipervisor, que abstrae el hardware, se conoce como virtualización de servidor. Por lo tanto, en una única máquina física poderosa, puede haber varias máquinas virtuales en ejecución, explotando así la capacidad informática máxima. Esto significa que, para cada máquina virtual, tiene que haber un espacio separado para el procesamiento, núcleo, interfaz de red, esquemas IP, sistemas de archivos y cientos de otras cosas. No es algo malo Todavía es la tecnología de ir a. Pero, ¿por qué la necesidad de depender del sistema operativo invitado para cada máquina virtual? Imagínese, en lugar de ejecutar múltiples máquinas virtuales en un solo hardware físico, puede ejecutar una aplicación y sus datos asociados en un espacio de usuario confinado (la memoria limitada a la que se permite el acceso de un proceso) en un kernel único. Lo que imaginaste se llama contenedor. ¿Qué es la Containerización? Containerización es una virtualización de nivel de sistema operativo para implementar y ejecutar aplicaciones distribuidas sin iniciar una máquina virtual separada para cada aplicación. Respondiendo nuestra segunda pregunta: ¿cuánto tiempo lleva ?, lleva más de tres décadas, en algún momento de 1982, cuando se intentó una virtualización con un nombre extraño llamado OS, donde se podía crear una copia virtualizada del software del sistema. . Nadie más allá de un grupo de fans de virtualización entendió lo que significaba entonces. 23 años después, Solaris lanzó la primera de las aplicaciones en contenedores basándose en Chroot. Incluso llamaron a sus contenedores, Chroots con esteroides. En 2008, Linux Containers (LXC) se convirtió en una versión más refinada de esta tecnología utilizando la funcionalidad cgroups en Linux Kernel. Este punto en la línea de tiempo que establece una serie de eventos que conducen a nuestro estado actual de Contenedores, debe ser observado de cerca. ¿Qué hizo LXC correctamente que eventualmente llevó a que Docker se construyera sobre esto? Los contenedores se convirtieron en un éxito porque Docker fue un éxito y es por esto que LXC fue un éxito. Entonces, para avanzar, debemos entender LXC. ¡Volvamos al 2008! En LXC, se usaron espacios de nombres y cgroups. ¿Recuerda cómo cada una de las máquinas virtuales cree que son las únicas que se ejecutan en el hardware? De manera similar, los espacios de nombres le dan a un grupo de procesos la ilusión de ejecutar un proceso singular en el sistema. Básicamente, limitan la vista de cada proceso sobre varios recursos del kernel. Actualmente hay 6 espacios de nombres completados e implementados. Son y son para: UID y GID, comunicación entre procesos, red, identificación de proceso, sistema de archivos y dominio / nombre de host. Los recursos antes mencionados se pueden controlar desde una interfaz unificada llamada cgroups (grupos de control). Con estas dos funcionalidades, los recursos del kernel están aislados para cada uno de los procesos. Además de esto, Union File System es una de las funciones básicas que hacen que los contenedores sean livianos. Básicamente es un sistema de archivos de copia sobre escritura. Esto significa que, en un proceso, donde hay varias personas que llaman que acceden al mismo recurso, el recurso no se copia y se envía a cada uno de los llamantes. El recurso permanece donde está, mientras que se les da un puntero a las personas que llaman para leer el recurso. Cuando se necesita una modificación, y solo entonces, se toma una copia del recurso y se realizan los cambios, dejando el original intacto. Solo los cambios realizados se apilan como imágenes de cambio delta sobre la imagen base (los directorios y utilidades mínimos viables de Linux) formando un único sistema de archivos. Esto ayuda a una mejor segregación de las capas y evita la creación de duplicados. Incluso con estas características existentes durante un largo período, no pasó mucho hasta hace poco. ¿Por qué? Cualquier tecnología debe ser accesible para aprovechar el impulso. Docker hizo esto por Contenedores. Es el software que realiza la contenedorización completa. Hizo que el proceso de construir uno-fácil, ejecutandose mas rápido y reunió a una gran comunidad que hizo que muchas imágenes disponibles públicamente sean utilizadas por muchos. "Muchos" es una simplificación excesiva teniendo en cuenta que el año pasado se sacaron 12 mil millones de imágenes (la jerga de Docker se descargó). Entonces, un usuario crea un archivo Docker que se usa para construir la imagen de Docker junto con la aplicación y sus dependencias. Esto se comunica a Docker Daemon utilizando Docker Client. Los usuarios pueden subir una imagen o descargar una imagen disponible públicamente. Esto empaqueta la aplicación y sus dependencias en un contenedor invisible, eliminando así la sobrecarga que puede incurrir al iniciar y mantener una máquina virtual. Esto nos lleva a la pregunta que planteé al comienzo de este blog, es decir, ¿cuál es el futuro de los Contenedores y VM? Los contenedores son preferidos para el arranque instantáneo, la modularidad, la portabilidad y el uso de varias copias de una sola aplicación. Cuando se elimina la jerga, significa que las aplicaciones utilizan el mismo sistema operativo, superando así la demora en el arranque. Cuando dije modular, me refiero al microservicio que ofrece la contenedorización. Una aplicación se puede dividir en módulos en función de su funcionamiento y cada operación se puede crear de forma separada e instantánea. Las imágenes base se pueden distribuir a diferentes máquinas mediante la descarga desde el registro, lo que lo hace portátil. ¿Dónde gana VM entonces? Básicamente en cualquier otro caso. Los contenedores solo funcionan si las aplicaciones se ejecutan en el mismo sistema operativo. ¿Qué sucede si un usuario necesita usar diferentes aplicaciones que se ejecutan en diferentes sistemas operativos? Las máquinas virtuales brindan una solución confiable. Proporcionan una mejor seguridad. Los problemas que pueden surgir con la expansión de los segmentos de los contenedores: administrar numerosos micro segmentos, pueden ser una carga. Cuando está creando un contenedor, es un recinto de seguridad, lo que significa que agregar otras dependencias es una causa de preocupación. Estos puntos dolorosos no existen en las máquinas virtuales. Esto no significa que las VM vencen a los Contenedores y tampoco significa que los Contenedores eliminarán las VM. Ni siquiera están uno contra el otro. La estrategia más eficiente y más utilizada es tener una máquina física que tenga varias máquinas virtuales y cada máquina virtual tenga varios contenedores. Existe una razón por la cual se realiza el formato de máquina Contenedores en máquinas virtuales en lugar de simplemente saltar cara a cara en los contenedores. Los usuarios deben optimizar sus recursos informáticos, pero al mismo tiempo deben tener la libertad de elegir la forma en que desean utilizar los recursos. Los contenedores resuelven los problemas planteados por las máquinas virtuales y ayudan a avanzar en la optimización de los entornos informáticos. Experimente la protección de datos moderna con esta última edición GRATIS de Vembu BDR Suite v.3.9.0. Pruebe la versión de prueba gratuita de 30 días aquí: https://www.vembu.com/vembu-bdr-suite-download/

  • La analogía de los contenedores y las máquinas virtuales

    La comparación gira en torno a una conclusión necesaria que los Contenedores han establecido para convertirse en la comidilla de la ciudad en estos días y especialmente para el equipo de infraestructura de cualquier organización. Ahora la respuesta que la mayoría de nosotros buscamos es cuando los contenedores se comparan con las máquinas virtuales, que es más eficiente. Por lo tanto, profundicemos para ver cómo evolucionan los ecosistemas de máquinas y contenedores virtuales. Las máquinas virtuales alguna vez se convirtieron en las formas más rentables de configurar un entorno virtual que redujera el costo del hardware. Pero, en los últimos tiempos, el concepto de contenedores está en los titulares, lo que demuestra ser una forma mucho más eficiente de configurar su entorno virtual. Permítanme presentar la comparación de las máquinas virtuales y los contenedores en 2 encabezados: el host y el plano de control. El nivel de host Analogy Los servidores forman la base para una arquitectura de máquina virtual. El sistema operativo host (SO) se coloca en la parte superior del servidor sobre el que está instalado el hipervisor. En función de los requisitos, se crean múltiples números de sistema operativo invitado (G) o las máquinas virtuales, además de las aplicaciones que están instaladas y se les permite ejecutar. Aquí el punto a enfocar es que cada sistema operativo invitado está aislado. Tiene sus propios paquetes de bibliotecas y aplicaciones ejecutándose. Los contenedores, por otro lado, se construyen usando una arquitectura similar a la de una máquina virtual, pero varía en una escala muy pequeña en comparación con los contenedores. En lugar de tener instalado un hipervisor, se pueden crear varios contenedores utilizando cualquier software de contenedor (Con s / w) como Docker, rkt o muchos otros software disponibles en el mercado. Aquí los contenedores creados dentro del mismo host pueden ejecutarse utilizando un solo sistema operativo invitado, es decir; los recursos del sistema operativo invitado pueden ser compartidos por los contenedores bajo el mismo host. Esto hace que los contenedores sean mucho más livianos, mientras que las máquinas virtuales se consideran pesadas. La analogía del nivel de host muestra, por lo tanto, la reducción del tiempo de inicio de los contenedores, ya que no es necesario iniciar el sistema operativo invitado completo cada vez, lo que reduce el requisito de reproducir el código del sistema operativo. Si bien la máquina virtual tarda unos minutos en arrancar, los contenedores se pueden iniciar casi instantáneamente en cuestión de segundos. La analogía del plano de control La escalabilidad necesaria en el nivel del plano de control de la arquitectura virtual está precisamente bien definida para las máquinas virtuales. Además de vMotioning para disponibilidad, no podemos escalar su estado. Los contenedores se paran en un plano de control escalable sin estado. Las aplicaciones que podremos implementar aquí se escalan en el rango de, lo que llamamos una "aplicación de Twelve-Factor". Aquí nuevamente, los contenedores toman la delantera en la carrera de escalabilidad eficiente. Conclusión Cada punto de discusión describe que los contenedores son la forma más eficiente de construir una infraestructura virtual, pero antes de llegar a una conclusión final, una cuestión de hecho que debe entenderse es que las máquinas virtuales tienen su propio significado. En un escenario, donde el requisito exige una variedad de sistema operativo para ejecutar múltiples aplicaciones, entonces la mejor opción será definitivamente una máquina virtual. Cuando se necesita ejecutar aplicaciones máximas en un servidor mínimo, la opción de curso cambia a contenedores. En resumen, una configuración de entorno virtual ideal incluye máquinas virtuales y Contenedores . Publicado por lubna amathul wadhoodh. #containers #contenedores #virtualizaicon

  • Los resultados están : ¡Sophos ocupa el puesto n.°1 en protección de exploits!

    Los exploits son las técnicas que utilizan los atacantes para obtener acceso y control de las computadoras. Los errores comunes y las vulnerabilidades que se encuentran en el popular y legítimo software se pueden aprovechar como exploits para robar datos, retener archivos para pedir rescate, realizar reconocimientos o simplemente para desplegar malware. Los atacantes confían en las hazañas de la misma manera que los personajes de los videojuegos dependen de sus herramientas: sin ellos, sería como ir a la batalla desarmados. Y a pesar de ser extremadamente popular para los atacantes, muchas defensas siguen siendo vulnerables a los exploits, ya que el software que a menudo se explota (Microsoft Office, Adobe Reader y similares) generalmente se considera "seguro" por los productos de seguridad. Esto parecería hacer que las pruebas de explotación sean faciles para los servicios de comparación de proveedores. El problema, sin embargo, es que debido a la naturaleza en constante evolución de las vulnerabilidades del software, los ataques basados ​​en exploits son algunos de los escenarios más difíciles de probar. Afortunadamente, MRG Effitas logró desarrollar escenarios de prueba de exploits confiables y repetibles y recientemente lanzó su informe "Exploit and Post-Exploit Protection Test". Encargado por Sophos, este informe compara las capacidades de detención de exploits de nueve productos de punto final diferentes. Como se puede ver en el gráfico a continuación, Sophos superó con creces a otros proveedores al detener exploits: el nivel 1 significa que el producto bloqueó el exploit, y el nivel 2 significa que el exploit se perdió pero el ataque se detuvo a través de otros métodos. Sophos bloqueó 34 de los 35 exploits probados, mientras que el siguiente puntaje más alto fue 22 de 35. De hecho, la mayoría de los proveedores no pudieron detener la mitad de los exploits que Sophos pudo detener. Esta prueba fue una continuación del informe anterior de MRG sobre protección contra malware . En ese informe encargado, Sophos ocupó el primer puesto en cuanto a la protección contra malware y la protección de aplicaciones potencialmente no deseadas (PUA). Para resumir los resultados de las pruebas de los dos informes de MRG Effitas: Sophos ocupa el primer lugar en prevención de exploits Sophos ocupa el número 1 en protección contra malware Sophos ocupa el n. ° 1 en prevención de aplicaciones potencialmente no conocidas Lea el informe completo aqui. traducido del blog de Sophos Domotes es distribuidor mayorista para Colombia de Sophos en Colombia. #proteccionexploit #antiexploit #antimalware #Sophos #distribuidordesophos

  • Recuperación de desastres de Hyper-V en la nube

    En la actualidad, las Administraciones de TI manejan múltiples sistemas operativos en sus robustas cargas de trabajo. Microsoft Hyper-V es una de las herramientas de software diseñadas para controlar y administrar la infraestructura virtual. Por lo tanto, hacen una gran contribución para reforzar los recursos informáticos de una organización, lo que a la larga ahorra dinero y tiempo en comparación con la actualización de costosos recursos de hardware. Hace que múltiples sistemas operativos como Windows, Linux y otros se ejecuten paralelamente en un único servidor de Windows. Windows Hyper-V incluso extiende la flexibilidad de agregar controladores virtuales, conmutadores virtuales y muchos otros dispositivos de almacenamiento virtual a las máquinas virtuales. Desde ser utilizado como un servidor Hyper-V independiente hasta ser utilizado como una función de Windows Server, debe instalarse como un rol en Windows Server 2008, Windows Server 2008 R2, Windows Server 2012, Windows Server 2012 R2 y la versión x64 de el Windows 8 Pro, definitivamente es útil como la tarjeta de triunfo de un administrador de TI para administrar entornos de pruebas y desarrollo sin afectar la red de producción. Además, la utilización del hardware necesaria para gestionar las aplicaciones de línea de negocio (LOB) eventualmente se reducirá en gran medida, evitando así que las organizaciones sobredimensionen sus recursos de hardware para evitar quedarse sin capacidad del servidor. Mientras, se entiende claramente que Hyper-V es una tecnología de virtualización crucial, el creciente número de amenazas a los datos y la TI en estos días son alarmantes ya que la implementación de un mecanismo de protección de datos es una necesidad para evitar dolores pérdida de datos durante un desastre sin precedentes. Desastre. Beneficios de mover Hyper-V a la nube Siempre es seguro tener una copia de los datos en los servidores Hyper-V en un entorno DR. Incluso más eficiente si está en la nube. La nube, sin duda, se ha convertido en la tecnología de hoy y de mañana, que las empresas prefieren administrar sus cargas de trabajo en la nube, ya que se espera que tenga una mejor continuidad comercial. Las siguientes razones le darán una idea de por qué conservar sus servidores Hyper-V en la nube puede ser una de las mejores decisiones que se toman: Disminuye los costos operativos de las empresas a largo plazo Cuando los administradores del sistema tienen sus servidores Hyper-V en la nube (con una variedad de opciones como AWS, Azure, IBM Cloud, etc.), eventualmente minimizarían los costos que se gastarían en mantener los equipos de hardware en las instalaciones. . Lo más significativo es que la recuperación de su infraestructura de Hyper-V de un sitio cálido a través de Cloud Disaster Recovery sería comparativamente mínima RTO y RPO en comparación con la que experimentaría desde un sitio frío a través de los escenarios tradicionales de recuperación de desastres. Alta escalabilidad en capacidad de almacenamiento Permite la flexibilidad tanto para aumentar como para disminuir la capacidad de almacenamiento en función de las demandas del negocio. Por lo tanto, no necesita preocuparse por cumplir o exceder los requisitos de una cierta cantidad específica de almacenamiento. Disponibilidad en diferentes zonas geográficas Los usuarios están seguros con alta disponibilidad, ya que podrán replicar sus datos a centros de datos que residen en su conveniente ubicación geográfica, lo que garantiza un acceso más rápido a los datos en caso de un desastre. Modelo de fijación de precios de pago por uso La facturación se basa solo en el almacenamiento en la nube real utilizado en lugar de pagar por un suministro para una cierta cantidad de recursos que pueden o no ser utilizados. Administrar Hyper-V en la nube a través de Vembu BDR Suite Vembu BDR Suite proporciona una solución de copia de seguridad sin agente para entornos Hyper-V. Aprendamos ahora cómo administrar sus servidores Hyper-V en Vembu CloudDR, una eficiente plataforma en la nube para recuperación de desastres que reside en los servicios web de Amazon. Elija las máquinas para las cuales desea hacer una copia de seguridad. Además, puede excluir máquinas virtuales o discos específicos a través de la pestaña de filtro de exclusión de VM / disco Habilite la opción de retención de su elección y muévase luego. Descargue la suite Vembu BDR en una máquina dedicada de servidor de Windows con un mínimo de 8 GB de RAM Regístrese para la cuenta del portal Vembu para registrarse en Vembu CloudDR y para autenticar su servidor Vembu BDR en el portal Vembu también Después de registrar el portal Vembu ingresando los detalles, vaya a la pestaña "Productos" y regístrese en CloudDR. Lea el acuerdo de licencia y haga clic en la opción "Aceptar" Ahora inicie sesión en el Servidor Vembu BDR a través de la consola del servidor web y registre el servidor con la ID del portal que ha suscrito. Vaya a Gestión-> Gestión del servidor → Haga clic en la pestaña Registro del servidor. Serás dirigido a la siguiente página Haga clic en el botón "Registrarse" y luego ingrese los detalles requeridos para el registro exitoso. Registre con éxito el registro de su servidor Vembu BDR, continúe con la configuración de copias de seguridad para sus hosts Hyper-V. Ahora vaya a la pestaña "Copia de seguridad" y haga clic en "Microsoft Hyper-V" para configurar copias de seguridad. Agregue el host autónomo Hyper-V o SMB haciendo clic en sus respectivas pestañas y proporcione las credenciales del host para que pueda configurar las copias de seguridad sin agente del servidor Vembu BDR. Una vez que haya terminado de agregar el host Hyper-V, los hosts agregados aparecerán en la pestaña "Servidores List-Hyper-V". Podrá configurar copias de seguridad de nivel de host / máquinas virtuales selectivas que se ejecutan debajo haciendo clic en la opción de copia de seguridad. Elija las máquinas para las cuales desea hacer una copia de seguridad. Además, puede excluir máquinas virtuales o discos específicos a través de la pestaña de filtro de exclusión de VM / disco Haga clic en siguiente. Encontrará "Configuraciones compatibles con la aplicación" donde puede habilitar la opción "Truncar los registros de transacciones" si tiene alguna aplicación de Microsoft como SharePoint, Active Directory, Exchange, etc. que se ejecute en esos hosts Hyper-V y proceda a continuación En el futuro, puede elegir con qué frecuencia desea programar sus copias de seguridad. Ejecutar las copias de seguridad por hora, por día y semanalmente son las opciones disponibles. Además de eso, también tiene la flexibilidad de configurar copias de seguridad completas adicionales. Haga clic en Siguiente Luego está la configuración de retención para la tarea de respaldo actual. Los siguientes son los dos tipos de políticas de retenciones ofrecidos por Vembu Retención básica: permite al usuario tener un máximo de 99 puntos de recuperación combinados diarios de los datos de la copia de seguridad Retención avanzada: esta opción sigue el método Abuelo-Padre-Hijo donde los puntos de restauración por hora se fusionan con un punto de restauración combinado diario, puntos de restauración combinados diarios a puntos de restauración fusionados semanalmente y puntos de restauración semanal a un único punto de restauración mensual Habilite la opción de retención de su elección y muévase luego. Revise la configuración de configuraciones para la tarea de respaldo y haga clic en la opción "Guardar la copia de seguridad" Habilitar la copia fuera del sitio para el servidor Vembu BDR registrado Después de proporcionar los detalles, haga clic en "Guardar configuraciones de replicación". La tarea de copia de seguridad anterior ahora se almacenará en el servidor Vembu BDR y ahora está lista para ser replicada en Vembu CloudDR. Vaya a Gestión-> Gestión de copias fuera del sitio-> Configuración de copia fuera del sitioy habilite la opción de Gestión de copia externa Haga clic en la opción Vembu CloudDR Server y proporcione detalles sobre la configuración de la ventana, la configuración de retención y la limitación del ancho de banda. Haga clic en "Editar" al lado de estas opciones para personalizar su configuración La configuración de la ventana para un período de tiempo específico garantizará que las copias de seguridad no se repliquen en Vembu CloudDR. La opción anterior está habilitada considerando el hecho de que habrá grandes cargas de trabajo que permanecerán activas durante el período establecido. Por lo tanto, todas las tareas de copia de seguridad se replicarán en Vembu CloudDR después de las 4:00 PM durante los días laborables y los fines de semana la replicación progresará inmediatamente después de que la tarea de copia de seguridad se complete con éxito. Las opciones de retención le ayudarán a conservar un número específico de puntos de recuperación y la cantidad máxima de copias de seguridad completas. Desde que configuré la copia de seguridad para mi host Hyper-V, habilité el estado de retención de imagen y establecí 4 puntos de recuperación combinados diarios y 1 copia de seguridad completa. Esto significa que en Vembu CloudDR, siempre he tenido 4 puntos de recuperación combinados diarios recientes con 1 copia de seguridad completa La replicación en Vembu CloudDR ocurrirá después de las 4:00 PM y continuará hasta las 8:59 AM del próximo día laborable. Durante estas horas, la replicación del servidor Vembu BDR al Vembu CloudDR a las 4:00 p.m. a 7:00 p.m. consumirá un máximo de ancho de banda de solo 10 Mbps. Incluso si el servidor Vembu BDR falla durante un desastre inesperado, todos los datos pueden recuperarse del Vembu CloudDR iniciando sesión en onlinebackup.vembu.com a través de la consola del navegador. Ir a CloudDR-> Recuperación. El servidor Hyper-V replicado aparecerá en la lista y podrá recuperarlo a través de la opción Descargar Resumen: Este blog habría dado una amplia visión de los beneficios de tener sus servidores Hyper-V en la nube. Teniendo en cuenta muchos factores, como la flexibilidad de la nube para ofrecer un entorno escalable, su mejor rendimiento durante la recuperación de desastres en comparación con entornos basados ​​en hardware, su acceso en cualquier lugar y en cualquier momento y muchos otros factores; inevitablemente lo convierte en la tecnología más divertida. Experimente la protección de datos moderna con esta última edición GRATIS de Vembu BDR Suite v.3.9.0. Pruebe ahora en una prueba gratuita de 30 días Autor. Aseema Parveen J Traducido al espaol con la tecnologia de google del sitio web de Vembu Domotes es mayorista autorizado para Colombia de las tecnologías de Backup y recuperación de Vembu Vembu. #BackupdeHypervenlanube #Backupyrecuperacion #Vembubackup

bottom of page