lundi 28 février 2011

Entreprise manager 11g en mode Standby


Dans ce post, je vais vous expliquer comment mettre en place Oracle Enterprise Manager 11R1 en mode fail over.

Topologie du test :
- DNS (comme Load balancer). C'est le moins couteux ;)
- OMS1   : un serveur primaire (OEL5 32bit)
- OMS2   : un serveur secondaire (OEL5 32bit)
- OMS11g : l'alias que je vais utiliser comme nom virtuel


Pour réussir cette installation, il vous faut :

- Installation Entreprise Manager 11g

Puis la suite de cet article

Attention : l'installation doit être effectuée avec le nom virtuel via le paramètre ORACLE_HOSTNAME

Installation de l'instance standby de l'OMS

Les étapes d'installation sont les suivants :

Sur le site primaire :
  • Installer et configurer le référentiel GC 11.2
  • Installer et patcher le serveur Weblogic 10.3.2
  • Installer l'EM 11g (instance primaire)
Sur le site de secoure :
  • Configurer une base de secoure (standby) avec le même nom et sid que la base primaire (référentiel GC 11g).
  • Installer et patcher le serveur Weblogic 10.3.2
  • Installer l'EM 11g (instance de secoure)
Passons au vif du sujet; l'installation et la configuration de l'EM "instance de secoure". (pour les autres étapes veuillez vous référer aux articles dédiés sur mon blog).

Créer puis copier la clé emkey vers le repository depuis le site primaire 
$OMS_HOME/emctl config emkey -copy_to_repos
scp emkey.ora oracle@oms2:/oracle/product/Middleware/oms11g/sysman/config/

Démarrer l'installation du grid contrôle sur le site standby en mode softonly
./runInstaller ORACLE_HOSTNAME=OMS11g -noconfig -silent -responseFile /sources/gc111/response/additional_mgmt_service.rsp


Appliquer les patchs GC
ORACLE_HOME/perl/bin/perl $ORACLE_HOME/install/oneoffs/apply_NewOneoffs.pl $ORACLE_HOME OC9321514,9207217

Lancer l'assistant de configuration omsca
omsca standby -EM_DOMAIN_NAME GCStandby -nostart



N.B : je crée un domaine supplémentaire avec le nom GCStandby pour déployer mon instance de secoure
Enter informations as needed (use same as primary)
Oracle Enterprise Manager 11g Release 1 Grid Control
Copyright (c) 2009, 2010, Oracle. All rights reserved.
Enter Admin Server Host Name[OMS2]:OMS11g
Enter Admin Server HTTPS Port[7101]:7101
Enter Admin Server user name[emgcadmin]:weblgogic
Enter Admin Server user password:
Confirm Password:
Enter EM instance host [OMS2]:OMS11g
Enter Upload HTTP PORT[4889]:4893
Enter Upload HTTPS PORT[4899]:4901
Enter location for OMS config files[/oracle/product/gc_inst]:/oracle/product/gc_inst
Enter Node Manager Username[emnmuser]:nodemanager
Enter Node Manager Password:
Confirm Password:
Enter Repository database host name:OMS1
Enter Repository database listener port:1521
Enter Repository database SID:emrep
Enter Repository database user password:
Enter Agent Registration password:
Confirm Password:
Doing pre requisite checks ……
Pre requisite checks completed successfully
Doing infrastructure setup ……
Infrastructure setup of EM completed successfully.
Doing pre deployment operations ……
Pre deployment of EM completed successfully.
Deploying EM ……
Deployment of EM completed successfully.
Configuring webtier ……
Configuring webTier completed successfully.
Securing OMS ……
EM Key is secured and is backed up at /oracle/product/Middleware/oms11g/sysman/config/emkey.ora
Securing of OMS completed successfully.
Performing Post deploy operations ….
Installing EMCLI…
EMCLI setup was skipped …
Post deploy operations completed successfully.
EM configuration completed successfully.
EM URL is:https://OMS11g:7799/em

Configurer le add-on de virtualisation
addonca -oui -omsonly -name vt -install gc

Exporter et copier de la configuration OMS depuis le site primaire
emctl exportconfig oms -dir /gc_config
scp -P xxx -p /sources/gc111/oms/opf_ADMIN_XXXXX.bka oracle@oms2:/gc_config/opf_ADMIN_XXXXX.bka

Importer la configuration OMS sur le site standby
emctl importconfig oms -file /gc_config/opf_ADMIN_XXXXX.bka

Modifier le référentiel du site de secoure
emctl config oms -store_repos_details -repos_host oms2 -repos_port 1521 -repos_sid emrep -repos_user sysman -no_check_db

La commande suivante permet de vérifier le référentiel que l'oms utilise
emctl config emkey -remove_from_repos

Oracle préconise la création et la configuration d'un emplacement central, pour héberger les fichiers contenant les données des métriques collectés par l'agent en cas d'utilisation de multiple OMS.

Lancer la commande suivante, sur l'ensemble des serveurs OMS
emctl config oms loader -shared yes -dir

Pour des raisons de sécurité, ne pas oublier de supprimer la clé du référentiel
emctl config emkey -remove_from_repos


Test de bascule sur le site de secoure

Testons notre prototype.

Arrêtez tous les services de gestion sur le serveur principal
emctl stop oms -all



Effectuer le changement DNS pour remonter l'ip du site de secoure en premier.

Arrêtez tous jobs de la base de données primaire
SQL> alter system set job_queue_processes = 0;

Effectuer un switchover de base
$ dgmgrl
DGMGRL> connect /
DGMGRL> voir la configuration;
DGMGRL> Passage à la "emrep";

Redémarrer l'ancienne base primaire en mode mount

Vérifiez que l'opération de switchover de la base s'est bien passé

Sur le nouveau site de production effectuer les opérations suivantes :

Vérifier le statut de la base
$ dgmgrl
DGMGRL> connect /
CONFIGURATION DGMGRL SHOW>;

Démarrer les jobs sur la nouvelle base de données primaire
SQL> alter system set job_queue_processes = 1000;

Démarrer l'OMS
emctl start oms

Vérifier que la connexion à la console EM est OK et que l'upload des agents fonctionne.

Pour un retour à la normal reprendre les étapes de la bascule depuis le début





Si quelque chose n'est pas clair ou manquant, merci de me le faire savoir.



Installer un loadbalancer Linux (LVS)



Linux Virtual Server (LVS) est une solution qui permet de garantir la répartition de charge ainsi que le fail over des services (applications).

Dans cet article j'explique l'installation et le paramétrage de ce produit.

L'offre LVS comporte les outils :
  • ipvsadm (constitue le noyau)
  • piranha (comporte le service pulse et l'outil de supervision nany) 
  • piranha-gui (l'interface web d'administration)

Installer les packages nécessaires sur le routeur LVS

Environnement de test

LVS (RHEL5.4)            : eth0: 192.168.26.201

Serveur Réel 1 (RHEL5.4) : eth0: 192.168.26.211
Serveur Réel 2 (RHEL5.4) : eth0: 192.168.26.212
VIP                      : 192.168.26.200P

Passerelle               : 192.168.26.1


Topologie du lab



Installer et activer les composants LVS au boot à l'aide des commandes :


yum install ipvsadm piranha
/sbin/chkconfig --level 35 piranha-gui on
/sbin/chkconfig --level 35 pulse on

/sbin/chkconfig --level 35 httpd on
  

Si vous souhaitez surveiller la charge des serveurs réel, je vous conseil d'installer l'outil rup comme suit.


Sur le serveur LVS Lancer la commande :
yum install rusers


Puis au niveau des serveurs réels, installer l'outil ruser-server et activer le au boot
yum install rusers-server
/etc/init.d/rstatd start
/sbin/chkconfig --level 35 rstatd on


Une fois l'installation terminée passons à la configuration. Mais une petite explication s'impose.


Le LVS peut être configuré selon 3 modes
  • NAT : nécessaire quand les serveurs virtuels sont sur un réseau différent de celui de la VIP du LVS
  • DR (direct routing) : utilisé lorsque les serveurs et la VIP du LVS sont sur le même réseau
  • TUN (tunneling) : En cas de situation complexes (ex : les serveurs réels sont sur des réseaux différents)
Pour faire simple ce poste traite le mode DIRECT.


Le LVS effectue le load-balancing en s'appuyant sur la technique de l'ip forwarding. Ce qui nécessite l'activation d'un paramètre linux spécifique.



Activer l'option d'ip forwarding sur toutes les machines (réels et LVS) en utilisant les commandes :

/sbin/sysctl -w net.ipv4.ip_forward=1
sysctl -p


Créer une interface virtuelle sur le LVS
ifconfig eth0:1 192.168.26.200 netmask 255.255.255.255 broadcast
192.168.26.1 up



Désactiver la résolution arp au niveau de l'interface lo (loopback) sur l'ensemble des serveurs réels
echo /etc/rc.local >> ip link set lo arp off
ip addr add brd dev lo


Configurer la vip LVS au niveau de l'ensemble des machines réel
echo /etc/rc.local >> ip addr add brd dev lo
ip addr add brd dev lo


La désactivation de l'arp sur l'interface lo n'étant pas suffisante, il faut faire ce qui suit pour contourner le problème arp (il faut avoir au minimum un kernel 2.4.26 mini ou 2.6.4 mini)

/sbin/sysctl -w net.ipv4.conf.lo.arp_ignore=1
/sbin/sysctl -w net.ipv4.conf.lo.arp_announce=2
/sbin/sysctl -w net.ipv4.conf.all.arp_ignore=1
/sbin/sysctl -w net.ipv4.conf.all.arp_announce=2
sysctl -p


L'utiliser l'outil de configuration Piranha nécessite un mot de passe, celui-ci peut être défini à l'aide de la commande :
/usr/sbin/piranha-passw


une fois le mot de passe créé, il ne vous reste plus que à démarrer l'application piranha-gui.

/usr/sbin/service httpd start

/usr/sbin/service piranha-gui start


Configuration du Routeur LVS via la console Piranha


Se connecter la console piranha via l'url http://192.168.26.201:3636 en utilisant le compte et le mot de passe d'administration (piranha/passwd).

Au niveau de l'onglet global settings, renseigner le nom/ip publique du serveur principal, puis cliquez sur le bouton ACCEPT





Ajouter le(s) service(s) virtuel(s) à load-balancer au niveau de l'onglet VIRTUAL SERVERS








Les informations GET et SEND ne sont nécessaires que pour les ports utilisent un protocole http.

Pour les autres types de protocoles il faut faire appel à des scripts (cf. document de configuration LVS redhat pour plus de détail sur les scripts).










vue d’ensemble après la configuration




Supervision de la charge des serveurs réels avec rup


Editer le fichier /etc/sysconfig/ha/lvs.cf

Activer le load_monitor pour chaque service virtuel :
load_monitor = rup
scheduler = lblc

Sur les serveurs réels, activer le daemon rstatd :
chkconfig rstatd on
service rstatd start


Pour finir redémarrer le service pulse sur le LVS
service pulse restart

mercredi 9 février 2011

Installation Entreprise Manager 11g (étape par étape)

Pour réussir cette installation, il vous faut :


Puis la suite de cet article


Démarrage de l'installeur à l'aide de la commande
./runInstaller

Décocher l'option "Je souhaite recevoir les mises à jour de sécurité via My Oracle Support"

Répondre "Oui" pour désactiver les mises à jour de sécurité 

Cocher l'option "Ignorer les mises à jour logicielles"

Choisir l'option "Installer un nouveau système Entreprise manager"

L'installeur vérifie la liste des prés-requis

Définir l'emplacement ORACLE_BASE de l'instance OMS

Renseigner le mot de passe des comptes weblogic et nodemanager

N.B : Oracle nom le premier domaine Grid contrôle GCDOMAINE par défaut.
 
Compléter l'écran de connexion avec les informations nécessaires à l'accès à la base de données
 
Renseigner le mot de passe des comptes sysman  et MDS ainsi que l'emplacement de création des tablespaces GC 11g.
 

Définir le mot de passe de sécurisation de l'oms et l'agent

Confirmer la liste des ports à utiliser

La page de résumé s'affiche, cliquer sur install

 Installation des binaires en cours

Le moment de la pause café ;) se rapproche.
Lancer le script allroot.sh depuis un terminal root et cliquer sur "ok" une fois le script exécuté.

Assistants de configuration en cours. (allez faire votre pause café)

Une fois l'installation terminée, la page de fin affiche les informations de connexion à la console EM et ceux de la console d'administration weblogic.


Valider votre installation en effectuant un accès à la console EM.
 

Installer un serveur Weblogic 10.3.2 pour Grid Control 11g


L'utilisation d'un serveur WebLogic 10.3.2 existants pour est un prés-requis à l'installation de Grid Control 11.1.0.1.0. C'est à cette fin je vous fournis cet article en détaillant la procédure d'installation.

Installation

Lancer l’exécutable convenable, suivant l'architecture de votre serveur.

Pour 32bit
java -jar wls1032_generic.jar -log=$HOME/install_linux64.log -log_priority=debug

Pour 64bit
java -d64 -jar wls1032_generic.jar -log=$HOME/install_linux64.log -log_priority=debug
  
Choisir l’option "Create a new Middleware Home" puis définir l’emplacement Middleware HOME.


Décocher l’option "I wish to recive security updates via My Oracle support"

Choisir le mode d'installation "Typical"


Définir l’emplacement de l’installation des binaires wls.


Vérifier le résumé de l’installation, puis cliquer sur Next pour démarrer l’installation.


Installation en cours

Une fois l’installation terminée, décoché l’option "Run quickstart" puis cliquer sur Exit


Post-installation

L'installation du patch weblogic WDJ7 est obligatoire, par conséquent nous allons l'appliquer.

Lancer l’utilitaire de mise à jour BEA
cd $MIDDLEWRA_HOME/utils/bsu
./bsu.sh

Une fois lancé, l'utilitaire scanne pour la liste des patchs disponibles


L’utilitaire requière une authentification avec un identifiant oracle valide


Au niveau de l'onglet "Get patchs" identifier et télécharger le patch WDJ7.

A la fin du téléchargement cliquer sur le bouton "Apply" correspondant au patch WDJ7


Une fois le patch installé, cliquer sur file >> quit

Créer un repository EM 11g sur une base 11.2


Dans cet article je vais créer ma base de données EMREP, celle-ci constituera un référentiel pour mon Grid contrôle 11g.

Ce poste suppose que vous disposez d'un serveur oracle 11.2.0.2. 

Si ce n'est pas le cas merci de vous référez à l'article ici

Invoquer l'assistant de création de la base de données.
./dbca


Sélectionner l'option "Create a database"

Créer la base depuis le modèle "général"

Renseigner le nom global et le SID de la base à utiliser

Au niveau de l'écran de gestion des options, décochez la case "Enterprise Repository Manager" afin d'éviter la configuration de la console database.

Définir un mot de passe pour les comptes de la base sys et system


Choisir l'option du stockage adéquate à votre environnement, puis définissez l'emplacement de stockage des datafiles.

Définir la taille de la flash recovery area.

Décocher l'option "simple schemas"


Ajuster la taille de la sga en fonction de la plate forme

Vérifier et valider les caractéristiques des fichiers de la base.

Sélectionner les options de création en fonction du besoin

La page de résumé s'affiche, cliquer sur "ok" pour valider la création

Une fois l'installation terminée, cliquer sur "Exit"

veiller à définir les paramètres d'initialisation de la base comme décrit ci-après :

Compatible => 10.2.0.1.0 or higher
remote_login_passwordfile => SHARED or EXCLUSIVE
statistics_level => TYPICAL
timed_statistics => TRUE
undo_management => AUTO
workarea_size_policy => AUTO
db_block_size => 8192 or greater
job_queue_processes => 10 or greater
log_buffer => 10485760 or greater

memory_target (Only for Oracle Database 11g Release 2 (11.2) and higher) => cf. http://www.oracle.com/technology/documentation/database.html

open_cursors => 300 or greater
processes => 500 or greater
session_cached_cursors => 200 or greater
sga_target => cf. http://www.oracle.com/technology/documentation/database.html


Il faut configurer la couche réseau, pour finaliser l'opération de préparation.


















Références :
Installer weblogic 10.3.2 pour GC 11g
Installer le moteur oracle database 11.2