Archive

Posts Tagged ‘PowerShell’

SharePoint 2016 – Fast Site Collection

Hi Folks !

Parmi les nouveautés annoncées de SharePoint 2016, la performance de création des sites collection a été améliorée en diminuant les fonctionnalités activées par défaut. C’est un peu dans la même lignée que le Minimum Role lors de la création d’un serveur SharePoint.

Nous allons voir comment ça marche et surtout comment l’utiliser

Tout d’abord, vous ne verrez pas dans les menus SharePoint de la CA un bouton magique pour effectuer l’action… C’est en PowerShell que tout ce passe par ici les commandes !

L’activation de la fonctionnalité pour le Template de site qui doit être créé rapidement :

Juste pour rappel la liste des templates s’obtient avec la commande :

  • Get-SPWebTemplate puis vu que nous souhaitons que les Templates 2015 :
  • Get-SPWebTemplate | ?{$_.CompatibilityLevel -eq 15}
  • Enable-SPWebTemplateForSiteMaster -Template [TemplateName] -CompatibilityLevel 15
Une fois le Fast Site Collection actif, il faut créer un nouveau SiteMaster avec la commande suivante :
  • New-SPSiteMaster -ContentDatabase [DBName] -Template [TemplateName]
27-08-2015 11-41-32Vous pouvez lister les sites master avec la commande :
  • Get-SPSiteMaster
Vous verrez alors FeaturesToActivateOnCopy
Pour connaître les fonctionnalités qui seront activées lors de l’utilisation du Master passez les commandes suivantes :
(Il est possible de boucler pour récupérer tous les IDs et avoir tous les Noms, je le veux volontairement simple)
  • $var = Get-SPSiteMaster | ?{$_.SiteId -eq « SITEID »}
  • $var.FeaturesToActivateOnCopy | ft -autosize
  • Get-SPFeature -Identity « FeatureID »
Hop c’est disponible et donc passons maintenant à la création de la Site Collection avec la commande suivante :
  • New-SPSite http://URL/ -Template [Template] -ContentDatabase [DBName] -CompatibilityLevel 15 -CreateFromSiteMaster -OwnerAlias [domain\login]
 27-08-2015 11-47-09
En y regardant de plus prêt ce qui ce passe réellement est une copie de la base de données lors de l’utilisation du Fast Site Collection Creation, l’activation des fonctionnalités étant déjà faites, du coup on gagne en temps de traitement, contrairement à une création « classique » où l’activation de la fonction ce fait une fois le site créé.
Have fun & Stay Tuned !
Publicités

SharePoint 2013 Search Configuration & Tuning

24 janvier 2015 1 commentaire

Hey folks !

En ce moment j’ai beaucoup de demande sur le service de recherche de SharePoint 2013, ce qu’il fait exactement, ce qu’il consomme, où est l’index, quelle est sa taille, comment dois-je dimensionner ma machine, est-ce que je dois répartir les rôles, est-ce que je les répartie sur une instance SQL à part, etc. … Et enfin une fois que l’ensemble des parties d’architecture sont définies, comment je mets le tout en place. Dans le cas de figure nous verrons ce qui est le plus présent dans la majorité des cas c’est-à-dire une architecture en haute disponibilité Frontale, et Applicative.

 

Pour récapituler le moteur de recherche de SharePoint 2013, j’aime à dire que « SharePoint 2010 & Fast qui ont eu un bébé » ; effectivement le moteur de 2013 reprend le meilleur des deux mondes afin d’offrir aux utilisateurs une expérience de recherche riche. Et permettre aussi au power user de moduler l’ensemble des recherches, en fonction d’un ensemble de règles qui feront l’objet d’un prochain article, celui-ci étant plutôt dédié à la mise en place du moteur.

Un peu d’histoire, en 2010 il était encore possible de manipuler l’ajout de crawler, changer le query, etc. … via le GUI de la centrale d’administration de SharePoint. Mais ça c’était avant … oui aujourd’hui c’est tout en PowerShell (il faudrait éventuellement créer un petit projet pour gérer l’ensemble via une petite interface piloté en PShell derrière, question de temps … mais je suis dessus et je vous transmettrai le lienJ) en attendant c’est du Full PShell

 

Les composants du moteur de recherche

Coté SharePoint

Nom du composant de recherche

Description

Composant d’analyse Analyse les sources de contenu pour collecter les propriétés analysées et les métadonnées à partir d’éléments analysés et envoie ces informations au composant de traitement de contenu
Composant de traitement de contenu Transforme les éléments analysés et les envoie au composant d’index. Ce composant mappe également les propriétés analysées sur les propriétés gérées
Composant de traitement de l’analyse Exécute l’analyse de la recherche et l’analyse de l’utilisation
Composant d’index Reçoit les éléments traités du composant de traitement de contenu et les écrits dans l’index de recherche. Ce composant gère également les requêtes entrantes, récupère les informations de l’index de recherche et renvoie le jeu de résultats au composant de traitement de la requête.
Composant de traitement des requêtes Analyse les requêtes entrantes. Cela permet d’optimiser la précision, le rappel et la pertinence. Les requêtes sont envoyées au composant d’index, qui renvoie un jeu de résultats de recherche pour la requête.
Composant d’administration de la recherche Exécute les processus système pour la recherche, puis ajoute et initialise de nouvelles instances des composants de recherche

 

Cote SQL

Si vous en avez la possibilité, n’hésitez pas à mettre les fichiers *.mdf de vos bases de recherche sur des disques gold (SSD ou sur du 15 000tr/min) c’est le jour et la nuit en terme de temps d’indexation et d’analyse.

Ces bases de données peuvent également être stockées dans une autre instance que celle de votre SharePoint avec des capacités beaucoup plus importante aussi.

Nom de la base de données de recherche

Description

Base de données d’analyse Stocke les informations de suivi et d’historique concernant les éléments analysés tels que les documents et les URL. Elle stocke également des informations telles que l’heure de la dernière analyse, le dernier ID d’analyse et le type de mise à jour (ajout, mise à jour, suppression) effectué lors de la dernière analyse.
Base de données de liens Stocke les informations non traitées qui sont extraites par le composant de traitement de contenu et les informations sur les clics de recherche. Le composant de traitement d’analyse examine ces informations.
Base de données de création de rapports d’analyse Stocke les résultats de l’analyse de l’utilisation.
Base de données d’administration de la recherche Stocke les données de configuration de recherche.

 

 

Comment les répartir les rôles sur les serveurs SharePoint

Il est important dans la topologie d’une ferme de répartir les rôles entre les serveurs afin de garantir une réactivité du système, certain composant vont être plus consommateurs que d’autres.

Par exemple la mémoire consommée sera plus importante pour le composant qui s’occupe de traiter le contenu des éléments indexé que le composant d’analyse de recherche.

La plupart du temps lorsque vous pouvez vous le permettre mettez en place des serveurs dédiés à l’indexation et à l’analyse. Les index peuvent être poussés sur les serveurs frontaux si vous voulez offrir des temps de recherche minimum aux utilisateurs. Il est important de répliquer l’index lorsque ce dernier est volumineux et afin de ne pas être obliger de tout ré indexer si vous avez des volumétries très importante.

 

Concrètement les ressources minimum par composant sont les suivants :

Composant

Stockage

Mémoire

Processeur

Bande passante réseau

Index 500 Go pour l’index. 16 Go 64 bits, 4 cœurs minimum, mais 8 cœurs recommandés. 2 Gbits/s
Traitement de l’analyse 300 Go pour le traitement local d’analyses 8 Go 64 bits, 4 cœurs minimum, mais 8 cœurs recommandés 2 Gbits/s
 

Traitement decontenuTraitement des requêtesAdministration de la recherche

8 Go 64 bits, 4 cœurs minimum, mais 8 cœurs recommandés. 2 Gbits/s

Base de données de recherche

Le serveur nécessite 80 Go d’espace disque quel que soit le nombre de bases de données de recherche qu’il héberge.
8 Go pour les déploiements à petite échelle16 Go pour les déploiements à moyenne échelle 64 bits, 4 cœurs pour les déploiements à petite échelle.64 bits, 8 cœurs pour les déploiements à moyenne échelle. 2 Gbits/s

 

Performance pour le stockage

Des composants de recherche

Nom du composant

Détails du composant

Besoins en IOPS

Utilisation de volume/partition de stockage distinct

Composant d’index Utilise le stockage lors de la fusion de l’index et lors de la gestion et de la réponse aux requêtes. 300 IOPS pour 64 Ko de lectures aléatoires100 IOPS pour 256 Ko d’écritures aléatoires200 Mo/s pour les lectures séquentielles

200 Mo/s pour les écritures séquentielles

Oui

Composant analytique Analyse les données localement, en traitement en bloc. Non Oui
Composant d’analyse Stocke le contenu téléchargé localement, avant de l’envoyer à un composant de traitement de contenu. Le stockage est limité par la bande passante réseau. Non Oui

Des bases de données

Nom de la base de données

Besoins en IOPS

Charge classique sur le sous-système d’E/S

Base de données d’analyse IOPS moyennes à élevées 10 IOPS pour un taux d’analyse d’1 document par seconde (DPS)
Base de données de liens IOPS moyennes 10 IOPS pour 1 million d’éléments dans l’index de recherche
Base de données d’administration de la recherche IOPS faibles Non applicable
Base de données de création de rapports d’analyse IOPS moyennes Non applicable

 

La redondance

J’en reviens à la redondance des éléments, tout d’abord les éléments redondants vous permettant une réelle haute disponibilité :

  • Le composant d’index
  • Le composant d’analyse
  • De traitement de contenu
  • De traitement des requêtes
  • Du traitement de l’analyse
  • Et l’administration de la recherche
  • Puis les bases de données de recherche.

Pour les bases de données

Je vous invite à utiliser ce que permet de faire SQL avec la fonctionnalité d’AlwaysOn qui permet de faire du clustering. J’essaierai de vous proposer un autre article sur le sujet à propos de sa mise en place.

 

Pour le composant d’index

Votre index est redondant s’il a au moins deux copies d’index par partition d’index. En cas de défaillance d’un serveur hébergeant une copie d’index, cela peut réduire les performances mais la recherche peut tout de même traiter des requêtes et des éléments d’index. Cependant, si l’environnement doit délivrer des performances constantes à tout moment, la recherche a besoin de composants d’index plus redondants.

Par exemple : vous avez conçu votre topologie de recherche avec deux copies par partition afin de réduire le temps d’attente pour les requêtes et votre environnement nécessite un court temps d’attente pour les requêtes en permanence. Augmentez le nombre de copies d’index par partition.

Toutes les partitions doivent avoir le même nombre de copies. Un composant d’index représente une copie d’index. Par conséquent, si vous voulez deux copies de l’index, vous aurez besoin de deux fois plus de composants d’index que de partitions d’index. Par exemple, un index redondant avec 40 millions d’éléments exige quatre partitions. Huit composants d’index représentent les quatre partitions en cas d’utilisation de deux copies pour chaque partition.

Si vous ajoutez des composants d’index aux partitions existantes en tant que copies sur une installation en cours, la recherche amorce automatiquement les nouvelles copies avec les données de la partition d’index. Plusieurs heures peuvent être nécessaires pour que les nouvelles copies soient opérationnelles.

Pour les composants d’analyse, de traitement de contenu, de traitement des requêtes, de traitement d’analyse et d’administration de la recherché

Prenons le composant d’analyse comme exemple. Si vous devez arrêter l’un des serveurs hébergeant un composant d’analyse pour maintenance, cela peut réduire l’actualisation des résultats mais la recherche peut tout de même analyser tout le contenu.

Cependant, si l’environnement nécessite la même actualisation des résultats en permanence, la recherche a besoin de composants d’analyse plus redondants. Par exemple : vous avez conçu votre topologie de recherche avec trois composants d’analyse et vous voulez la même actualisation de résultats même en cas de défaillance de deux serveurs de composants d’analyse. Ajoutez deux autres composants d’analyse.

Le composant d’administration de la recherche est une exception à ce principe. Un composant d’administration de la recherche a une capacité suffisante pour n’importe quelle topologie de recherche, peu importe sa taille. Ainsi, deux composants d’administration de la recherche sont suffisants pour assurer la redondance.

Les composants de traitement de contenu équilibrent la charge entre eux, donc les composants de traitement de contenu redondants augmentent la capacité de traitement des éléments.

 

Exemple d’archictecture de recherche

http://zoom.it/PKfA

Contexte Small Farm (~10M d’éléments)

Une ferme dédiée à la recherche

Ce qui est assez répandu

 

 

Contexte Medium Farm (~40M d’éléments) – Les serveurs WFE ne sont pas présentés sur le schéma-

 

Script PowerShell

Le script que je vous propose permet la mise en place d’une ferme de recherche avec deux serveurs :

Avant un passage du script, assurez-vous de comprendre ce qu’il fait !!! Je vois trop souvent trop de personne qui ne comprenne pas ce qu’ils font, mais le font… utiliser des machines de test !

$hostB = Serveur WFE qui possède un index ainsi que le rôle de query

$hostA = Serveur APP qui possède le reste des rôles

 

Add-PSSnapinMicrosoft.SharePoint.PowerShell –EA 0#Please Check if there is an Active Search Topology

#Get-SPEnterpriseSearchServiceApplication | Get-SPEnterpriseSearchTopology |? {$_.State -eq « Inactive »}

 

#If there is some Inactive Search Topology, clean it with the following cmdlet

#Get-SPEnterpriseSearchServiceApplication | Get-SPEnterpriseSearchTopology |? {$_.State -eq « Inactive »} |% { Remove-SPEnterpriseSearchTopology -Identity $_ -Confirm:$false};

 

# Create search application pool

$saAppPoolName = « Search SA »

$account = « corp\sp_farm »

 

Write-Host « Creating Application Pool » -foregroundcolor green

New-SPServiceApplicationPool -Name $saAppPoolName -Account $account -Confirm:$false -Verbose

 

# Search Specifics, we are single server farm

$searchServerName = (Get-ChildItem env:computername).value

$serviceAppName = « Search Service Application »

$searchDBName = « SHP_SearchService_DB »

 

# Grab the Appplication Pool for Service Application Endpoint

$saAppPool = Get-SPServiceApplicationPool $saAppPoolName

 

# Start Search Service Instances

Write-Host « Starting Search Service Instances… » -foregroundcolor green

Start-SPEnterpriseSearchServiceInstance $searchServerName

do {$online = Get-SPEnterpriseSearchServiceInstance -Identity $searchServerName; Write-Host « Waiting for service:  » $online.Status}

until ($online.Status -eq « Online »)

Start-SPEnterpriseSearchQueryAndSiteSettingsServiceInstance $searchServerName

do {$online = Get-SPEnterpriseSearchQueryAndSiteSettingsServiceInstance -Identity $searchServerName; Write-Host « Waiting for service:  » $online.Status}

until ($online.Status -eq « Online »)

 

# Create the Search Service Application and Proxy

Write-Host « Creating Search Service Application and Proxy… » -foregroundcolor green

$searchServiceApp = New-SPEnterpriseSearchServiceApplication -Name $serviceAppName -ApplicationPool $saAppPoolName -DatabaseName $searchDBName

$searchProxy = New-SPEnterpriseSearchServiceApplicationProxy -Name « $serviceAppName Proxy » -SearchApplication $searchServiceApp

 

###################################################################################################

###VM-SHP-HOST A

#===Admin component 1

#===Crawl component 1

#===Content processing component 1

#===Analytics processing component 1

###VM-SHP-HOST B

#===Query processing component 1

#===Index component 1 (that belongs to index partition 0)

 

#Application Server

$hostA = Get-SPEnterpriseSearchServiceInstance -Identity « Serveur APP »

#Front Server

$hostB = Get-SPEnterpriseSearchServiceInstance -Identity « Serveur WFE »

 

Write-Host « Starting Search Service Instances… » -foregroundcolor green

Start-SPEnterpriseSearchServiceInstance -Identity $hostA -verbose

do {$online = Get-SPEnterpriseSearchServiceInstance -Identity $hostA; Write-Host « Waiting for service:  » $online.Status}

until ($online.Status -eq « Online »)

 

Write-Host « Starting Search Service Instances… » -foregroundcolor green

Start-SPEnterpriseSearchServiceInstance -Identity $hostB

do {$online = Get-SPEnterpriseSearchServiceInstance -Identity $hostB; Write-Host « Waiting for service:  » $online.Status}

until ($online.Status -eq « Online »)

 

Write-Host « Getting Search Service Instance… » -foregroundcolor green

#Wait until all the search service instances are running. At the Windows PowerShell command prompt, type the following commands until the commands return the state « Online » for each of the search service instances

Get-SPEnterpriseSearchServiceInstance -Identity $hostA -verbose

Get-SPEnterpriseSearchServiceInstance -Identity $hostB -verbose

 

Write-Host « Creating Search Topology… » -foregroundcolor green

#Create a new search topology and a reference to the new search topology.

$ssa = Get-SPEnterpriseSearchServiceApplication -verbose

$newTopology = New-SPEnterpriseSearchTopology -SearchApplication $ssa -verbose

 

Write-Host « Configuring Role Topology Servers… » -foregroundcolor green

#Add all the search components to the new search topology

New-SPEnterpriseSearchAdminComponent -SearchTopology $newTopology -SearchServiceInstance $hostA -verbose

New-SPEnterpriseSearchCrawlComponent -SearchTopology $newTopology -SearchServiceInstance $hostA -verbose

New-SPEnterpriseSearchContentProcessingComponent -SearchTopology $newTopology -SearchServiceInstance $hostA -verbose

New-SPEnterpriseSearchAnalyticsProcessingComponent -SearchTopology $newTopology -SearchServiceInstance $hostA -verbose

 

New-SPEnterpriseSearchQueryProcessingComponent -SearchTopology $newTopology -SearchServiceInstance $hostB -verbose

New-SPEnterpriseSearchIndexComponent -SearchTopology $newTopology -SearchServiceInstance $hostB -IndexPartition 0 –verbose

 

#C’est ici que vous ajouter les rôles nécessaire en fonction de ce que vous souhaitez mettre en place

 

Write-Host « Activating topology… » -foregroundcolor green

#Activate the new search topology

Set-SPEnterpriseSearchTopology -Identity $newTopology -verbose

 

Write-Host « Getting Active Topology… » -foregroundcolor green

#Verify that the new search topology is active

Get-SPEnterpriseSearchTopology -SearchApplication $ssa -verbose

 

Write-Host « Checking Search Topology… » -foregroundcolor green

#Verify that all components of the new search topology are running correctly.

Get-SPEnterpriseSearchStatus -SearchApplication $ssa -Text -verbose

 

#Write-Host « Cleanning Topology… » -foregroundcolor green

#Get-SPEnterpriseSearchServiceApplication | Get-SPEnterpriseSearchTopology |? {$_.State -eq « Inactive »} |% { Remove-SPEnterpriseSearchTopology -Identity $_ -Confirm:$false};

 

Une fois que le tout est mis en place, penser à changer l’emplacement du repertoire d’index de SharePoint, par défaut il est sur le disque système, il convient de le changer de disque. Pour cela je vous invite à consulter le script de Ivan (https://gallery.technet.microsoft.com/office/Move-SharePoint-2013-242869e2)

Vous pouvez bien évidemment ajouter l’option IndexLocation dans le script fourni afin de déclarer l’emplacement de l’index. Cela ressemblerai à :

$indexlocation = e:\SSAIndex

New-SPEnterpriseSearchIndexComponent -SearchTopology $newTopology -SearchServiceInstance $hostB -IndexPartition 0 –IndexLocation $indexlocation –verbose

N’oubliez pas de créer le répertoire avant, et assurez-vous qu’il soit vide.

 

Le tuning de notre service de recherche

Une fois que les améliorations niveau SQL ont été effectuées

  • TempDB (en fonction du nombre de processeurs)
  • Mémoire dédié
  • Max Parrallelism défini
  • Disque SSD mis en place (bah pourquoi pas…)
  • Mémoire minimum définie
  • Taille de l’autogrowth définie (pour éviter la fragmentation)

Le tout relié à un SAN en FibreNoire, que peut-on améliorer …

Et bien le modèle de ranking utilisé en fonction de template que vous pouvez définir vous-même (promis c’est pas si compliqué que ça) J

Les scopes de recherche, il est absolument nécessaire de bien séparer les scopes de recherche ainsi que les urls qui sont indéxées, l’idée en fait est de faire des groupages, et surtout une planification des différents scopes.

Par exemple les archives peuvent être indexées une fois par semaine, alors que le portail collaboratif doit être indexé toute les 10 voir 5 minutes.

 

Le ranking

Déjà le ranking c’est quoi ?

Le ranking est une évaluation de classement de vos données de manière hiérarchisée basé sur les termes qui identifie votre document (les métadonnées) … (depuis le temps qu’on répète de les mettre … hein … un jour au supermarché on vous enlèvera les étiquettes, super pratique pour trouver la boite de crème de marron hein…) et qui contribue au calcul de pertinence de classement de SharePoint.

Cette fonction s’appelle BM25 (fonction hiérarchise) les articles en fonction de l’apparence de termes de recherche dans l’index. L’entrée BM25 peut être une des propriétés gérées dans l’index de texte intégral.

La fonction rangée BM25 calcule le score de classement de pertinence à l’aide de la formule suivante.


Où :

  • D est un document, représenté sous la forme d’une liste de champs textuels tels que le titre ou du corps.
  • Q est la requête utilisateur, représentée sous la forme d’une liste de termes de recherche, t.
  • S définit la liste des champs qui participent à la pertinence ; Cette liste est définie par le modèle de classement.
  • wf est une valeur numérique qui définit le poids relatif de champ f S; Cette valeur est définie par le modèle de classement.
  • Bf est une valeur numérique qui définit la normalisation de longueur de document pour chaque ordinateur champ f S.
  • TFf (t,D) est le nombre d’occurrences de requête terme t dans le champ f du document D.
  • DLf (D) est le nombre total de mots dans le champ f du document D.
  • N est le montant total des documents dans l’index.
  • nt un montant est de documents qui ont le terme t dans au moins une de leurs propriétés.
  • AVDLf est la moyenne DLf(D) sur tous les documents indexés.
  • k1 est un paramètre scalaire ; Cette valeur est définie par le modèle de classement.

Vous devez mapper les propriétés gérées utilisées pour la fonction de classement BM25 à l’index de texte intégral par défaut dans la Choisir recherche paramètres avancé de l’interface utilisateur.

Au sein d’une requête utilisateur, termes de requête qui font partie des opérateurs suivants sont exclus des calculs de classement de pertinence : NOT(…) dans FQL, NOT(…) dans KQL et FILTER(…) dans FQL.

En outre, les termes de requête qui se trouvent sous étendue, par exemple, title:apple AND body:orange, sont exclus des calculs de classement de pertinence.

Exemple de définition de fonctionnalité de classement BM25

XML

ContentRank » k1= »1″>

<Layer1Weights>

<Weight>0.26236235707678</Weight>

  </Layer1Weights>

<Properties>

name= »body » w= »0.019391078235467″ b= »0.44402228898786156″ propertyName= »body » />

    name= »Title » w= »0.36096989709360422″ b= »0.38179554361297785″ propertyName= »Title » />

    name= »Author » w= »0.15808522836934547″ b= »0.13896219383271818″ propertyName= »Author » />

    name= »Filename » w= »0.15115036355698144″ b= »0.96245017871125826″ propertyName= »Filename » />

    name= »QLogClickedText » w= »0.3092664171701901″ b= »0.056446823262849853″ propertyName= »QLogClickedText » />

    name= »AnchorText » w= »0.021768362296187508″ b= »0.74173561196103566″ propertyName= »AnchorText » />

    name= »SocialTag » w= »0.10217215754116529″ b= »0.55968554315932328″ propertyName= »SocialTag » />

  </Properties>

</BM25Main>

 

Dans cet exemple, le ranking, le classement est effectué si les métadonnées sont renseignés (un document qui a un titre aura un poid de 0,36 en plus de celui qui n’en a pas)

 

Le classement peut aussi être fait en fonction de la proximité de l’utilisateur avec un document, un collègue, etc. …

 

Sur la fréquence d’actualisation d’un document aussi

Actualisation

La valeur par défaut SharePoint 2013 le modèle de classement n’augmenter le rang des résultats de recherche en fonction de leur actualité. Vous pouvez obtenir cela en ajoutant une nouvelle fonctionnalité de classement statique qui combine des informations à partir de la propriété LastModifiedTime gérés avec la propriété de requête DateTimeUtcNow , à l’aide de la fonction de transformation de fraîcheur. La fonction de transformation de fraîcheur est la seule transformation que vous pouvez utiliser pour cette fonctionnalité de classement de fraîcheur, parce qu’elle convertit l’âge de l’élément à partir d’une représentation interne en jours.

La transformation de fraîcheur est basée sur la formule suivante :

Où :

  • c et yfuturessont définies dans le modèle de classement.
  • x est l’âge d’un élément en jours.
  • La valeur de yfuturesdéfinit le gain de fraîcheur des éléments qui ont LastModifiedTime supérieure à la date et l’heure.

Exemple de définition de fonctionnalité rang fraîcheur

XML

name='freshboost' propertyName='LastModifiedTime' default='-1' convertPropertyToDatetime='1' rawValueTransform='compare' property='DateTimeUtcNow'>
    Freshness" constant="0.0333" futureValue="2" />
    <Layer1Weights>
        <Weight>1.0</Weight>
    </Layer1Weights>
</Static>

 

https://msdn.microsoft.com/en-us/library/office/dn169052%28v=office.15%29.aspx

http://blogs.msdn.com/b/ianpal/archive/2008/06/25/tuning-sharepoint-search.aspx

Globalement compter comme cela :

  1. Déterminez la somme des bases de données de contenu SharePoint qui sera analysée. C’est la valeur ContentDBSum
    qui sera utilisée comme corrélation dans les calculs suivants.

     

  2. Déterminez la taille de l’index total (qui est situé sur les composants de requête et est utilisé pour les requêtes de texte intégral) :

    Multipliez ContentDBSum
    par 0,035. Vous obtenez la valeur TotalIndexSize
    (avant de partitionner et réserver de l’espace pour les fusions et le repartitionnement)

     

    Ensuite, déterminez le nombre de partitions d’index sur lequel sera basé votre scénario. En règle générale, une partition d’index devrait compter 5 à 10 millions d’éléments. Une fois le nombre de partitions d’index déterminé, vous pouvez calculer la taille de stockage du composant de requête.

     

    Divisez TotalIndexSize
    par le nombre de partitions d’index. Vous obtenez la valeur QueryComponentIndexSize
    qui permet de calculer les tailles suivantes :

  • Pour la RAM, multipliez QueryComponentIndexSize
    par 0,33. Vous obtenez la RAM minimum requise pour ce composant de requête, s’il est actif.
    • S’il s’agit d’un composant de basculement, il ne nécessite pas de RAM tant qu’il est inactif.
    • Pour un serveur donné, si vous avez plusieurs composants de requête actifs sur le même serveur, vous devez additionner la RAM de chaque composant de requête actif pour obtenir les besoins en RAM du serveur.
  • Pour le stockage disque, utilisez QueryComponentIndexSize
    comme suit pour estimer les besoins en disque, selon que vous envisagez de repartitionner ou non l’index (c’est-à-dire, si vous prévoyez une croissance de l’index supérieure à 10 millions par partition) :
    • Multipliez QueryComponentIndexSize
      par 3 pour calculer le stockage disque pour un seul composant de requête en laissant la place pour la fusion d’index.
    • Multipliez QueryComponentIndexSize
      par 4 pour calculer le stockage disque pour un seul composant de requête en laissant la place pour le repartitionnement d’index.

Pour un serveur donné, si vous avez plusieurs composants de requête sur le même serveur, vous devez prévoir le stockage pour chacun selon les besoins d’E/S par seconde répertoriés dans la section Détails d’échelle de la section Système de requête de recherche, plus haut dans cet article.

  1. Déterminez la taille des bases de données de propriétés de la manière suivante :
  • Multipliez ContentDBSum par 0,015. Vous obtenez la valeur TotalPropertyDBSize
    avant partitionnement.
  • Multipliez ContentDBSum par 0,0031. Vous obtenez la valeur TotalPropertyDBLogSize avant partitionnement. Cela suppose que vous utilisez le mode de récupération simple pour les bases de données SQL Server.
  • Multipliez ContentDBSum par 0,00034. Vous obtenez la valeur TempDBSize de la base de données de propriétés. Comme il est recommandé que 33 % des tables clés de la base de données de propriétés soient en RAM, l’utilisation de la base de données temporaire est légère.

Ensuite, déterminez le nombre de bases de données de propriétés que vous aurez, en fonction de votre scénario. En règle générale, une base de données de propriétés devrait compter jusqu’à 50 millions d’éléments, en supposant qu’il n’y ait pas de problèmes de performances des requêtes et que vous n’ayez qu’un nombre limité de propriétés gérées (configuration standard).

  • Divisez TotalPropertyDBSize par le nombre de bases de données de propriétés. Vous obtenez la valeur PropertyDatabaseSize.
  • Divisez TotalPropertyDBLogSize par le nombre de bases de données de propriétés. Vous obtenez la valeur PropertyDatabaseLogSize.
  • Pour la RAM, multipliez PropertyDatabaseSize par 0,33. Vous obtenez la quantité minimum de RAM recommandée pour cette base de données de propriétés.

Pour un serveur de bases de données particulier, si vous avez plusieurs bases de données de propriétés sur le même serveur, vous devez prévoir le stockage et la RAM pour chacune selon les besoins d’E/S par seconde et de RAM répertoriés dans la section Détails d’échelle de la section Système de requête de recherche, plus haut dans cet article.

  1. Calculez les tailles des bases de données d’analyse :
  • Multipliez ContentDBSum par 0,046. Vous obtenez la valeur TotalCrawlDBSize avant partitionnement.
  • Multipliez ContentDBSum par 0,011. Vous obtenez la valeur TotalCrawlDBLogSize avant partitionnement. Cela suppose que vous utilisez le mode de récupération simple pour les bases de données SQL Server.
  • Multipliez ContentDBSum par 0,0011. Vous obtenez la valeur TempDBSize de la base de données d’analyses. Comme le système d’analyse de recherche affecte les performances de la base de données temporaire, il est déconseillé de placer d’autres bases de données sur les serveurs qui hébergent la base de données d’analyse ou des bases de données qui seraient affectées par cela.

Ensuite, déterminez le nombre de bases de données d’analyse que vous aurez, en fonction de votre scénario. En règle générale, une base de données d’analyse devrait compter jusqu’à 25 millions d’éléments, en supposant qu’il n’y ait pas de problèmes de performances de l’analyse.

  • Divisez TotalCrawlDBSize par le nombre de bases de données d’analyse. Vous obtenez la valeur CrawlDatabaseSize.
  • Divisez TotalCrawlDBLogSize par le nombre de bases de données d’analyse. Vous obtenez la valeur CrawlDatabaseLogSize.

Pour un serveur donné, si vous avez plusieurs bases de données d’analyse sur le même serveur, vous devez prévoir le stockage pour chacune selon les besoins d’E/S par seconde répertoriés dans la section Détails d’échelle de la section Système d’analyse de recherche plus haut dans cet article. Pour la RAM, nous recommandons au moins 16 Go sur les serveurs de bases de données dédiés aux bases de données d’analyse.

  1. Déterminez la taille de la base de données d’administration de la recherche
  • Multipliez le nombre d’éléments de l’index (en millions) par 0,3. Vous obtenez la valeur SearchAdminDBSize.
  • Pour la RAM, multipliez SearchAdminDBSize
    par 0,33. Vous obtenez la quantité minimum de RAM recommandée pour cette base de données d’administration de la recherche.

Pour un serveur de bases de données particulier, si vous avez plusieurs bases de données sur le même serveur, vous devez prévoir le stockage et la RAM pour chacune selon les besoins d’E/S par seconde et de RAM répertoriés dans la section Détails d’échelle de la section Système de requête de recherche, plus haut dans cet article.

  1. Pour déterminer l’espace disque requis pour sauvegarder une application de service de recherche, effectuez le calcul suivant :

  • TotalCrawlDBSize + TotalPropertyDBSize + TotalIndexSize + SearchAdminDBSize = taille de sauvegarde de base.

Cette taille de sauvegarde de base est un point de départ. Elle peut être affectée par les facteurs suivants :

  • La taille d’index supplémentaire qui est incluse dans TotalIndexSize pour toute analyse effectuée depuis la dernière fusion principale.
  • La croissance au cours du temps due à des éléments, des requêtes et des descripteurs de sécurité supplémentaires.

Plus de détails par ici :
https://technet.microsoft.com/fr-fr/library/gg750251%28v=office.14%29.aspx

 

Estimer les performances de recherche sous SharePoint 2010

Estimate performance and capacity requirements for enterprise intranet collaboration environments

 

Aujourd’hui Microsoft mets en place Delve http://products.office.com/en-us/business/explore-office-delve qui est principalement basé sur le même concept.Au vu des volumétries qu’il est nécessaire d’indéxer et de la puissance de calcul nécessaire à mettre en place Delve ne sera pour le moment jamais porté sur des technologies OnPremise.

 

 

Hope this helps & Stay tuned !

PowerShell Tools

Hello !

Alors dans la catégorie outils de scripting en PowerShell, nous connaissons tous, l’IDE de Windows 7, qui se modernise avec Windows 8 plutôt cool d’ailleurs.

Après il y a les outils tiers pour n’en citer qu’un seul qui est IDERA PowerShell Plus 4.5 dernière release en date récente apportant quelques améliorations au niveau:

– System Explorer

– Layout Option

– Auto Completion

– Versionning

– Règles de format de document

Si vous souhaitez télécharger l’outil (gratuit full option pendant 30 jours: c’est pas ici: http://goo.gl/EKTXA)

Pour info, si vous êtes MVP, ou employé MSTE la licence vous est offerte, re cool !!

Après ce petit coup de pub pour Idera, voici un outil assez intéressant et qui mérite d’être téléchargé afin de voir ce qu’il donne.

Ce n’est pas un outil de scripting a part entière, mais il permet de parcourir l’ensemble des bibliothèques de scripts présente sur le ScriptCenter de Microsoft: http://goo.gl/FXa9l

Sans plus attendre, voici l’outil aujourd’hui disponible en pre-release : http://goo.gl/p8Qkq

Script Explorer permet de trouver des scripts PowerShell, des extraits, des modules,  les repository tel que le Centre TechNet, PoshCode, en local ou sur le réseau.

Script Explorer permet:

D’intégrer les ressources communautaires Microsoft pour vous aider à scripter en PowerShell.
La fonction de recherche continue à travers les référentiels en ligne pour localiser des exemples de scripts qui vous intéressent

A quoi Script Explorer ressemble t il ?

La partie recherche:

La partie Browse:

Une fois que vous avez trouvé un script qui vous convient vous pouvez le visualiser, le copier, le sauvegarder.

ATTENTION:

Compte tenu qu’il s’agit de script présenté sur internet, les scripts fourni servent à titre d’exemple (certain fonctionne parfaitement bien) mais il est vitale pour votre environnement de les tester, les recetter, et les valider avant de passer en production.

Une petite parenthèse,

On me pose souvent la question, « peut-on arrêter un script lancé si l’on s’aperçoit avoir oublié quelque chose? »

Pour plusieurs raison NON.

Dans la pratique, vous pouvez stopper un script oui (Ctrl+C).

Mais dans la mesure ou vous stopper son fonctionnement en cours de route, vous avez de grande chance (en fonction des opérations effectuées) de ne pas avoir l’erreur de votre script. Il vaut mieux laisser le script tomber en erreur et recommencer l’opération.

Je pense par exemple à une mise à niveau d’une base SharePoint, vous vous trompez dans la commande (mais il n’y a pas de raison car vous aurez testé et validé vos scripts auparavant… n’set-ce pas ? 🙂 ) Le script est interrompu … Il est fort probable que vous rencontriez alors des erreurs par la suite avec cette base.

Encore une fois, laissez le script tombé en erreur … Supprimer cette base qui a été interrompu dans son processus normal de fonctionnement et recommencer l’opération avec le backup que vous avez fait de cette base.

Enjoy & Have fun !

Catégories :PowerShell Étiquettes :