Mnogosearch installieren

Aus Hostsharing Wiki
Zur Navigation springen Zur Suche springen

Die Suchmaschine für die eigene Webseite

Mnogosearch ist eine Suchmaschine, die für die eigene Webseite verwendet werden kann. Sie ist für Webseiten bis einige tausend Seiten und Traffic, wie er auf einem Shared-Webserver vorkommt, gut geeignet. Die Software muss aus den Sourcen selbst kompiliert werden und kann mit Datenbanken wie Sqlite3, Mysql oder Postgresql eingesetzt werden.

Hier wird eine Grundinstallation beschrieben. Mnogosearch ist eine sehr umfangreiche Software mit mannigfaltigen Konfigurationsmöglichkeiten. Für die weitergehende Konfiguration muss auf die Dokumentation von Mnogosearch verwiesen werden.

Mnogosearch ist sehr mächtig und kann vor allen Dingen mit Unicode umgehen, es können viele Dinge eingestellt werden. In dieser Konfiguration funktioniert der indexer als "Crawler", er surft die eigene Webseite ab und speichert die Einträge für spätere Suchergebnisse. Dabei beachtet er die /robots.txt.

Es können aber auch das Dateisystem und verschiedene Dokumentarten durchsucht werden, es können Bereiche der Webseite ausgeschlossen werden und es können Sektionen in Webseiten definiert werden, die für die Auflistung der Suchergebnisse als wichtiger gewertet werden. Diese Dinge müssen zusätzlich konfiguriert werden. Dies ist nur eine Grundkonfiguration, die aber in den meisten Fällen ausreichen dürfte.

Installation des Debian Pakets

Für die Datenbank und die Konfigurationsdatei wird am besten pro Domain ein Verzeichnis "mnogosearch" eingerichtet und da die Konfigurationsdatei indexer.conf erstellt. Diese Datei kann auch von /etc/mnogosearch/indexer.conf kopiert werden und muss dann entsprechend geändert werden.

# cd /home/doms/example.com
# mkdir mnogosearch
# cd mnogosearch
# touch indexer.conf
# edit indexer.conf


Inhalt von indexer.conf

Dies ist die stark gekürzte und auf Notwendiges reduzierte Fassung. Ganz zu Beginn wird die Datenbankdatei und am Ende der zu indizierende Webserver definiert:

###########################################################################
# DBAddr <URL-style database description>
# Options (type, host, database name, port, user and password) 
# to connect to SQL database.
# Should be used before any other commands.
# Has global effect for whole config file.
# Format:
#DBAddr <DBType>:[//[DBUser[:DBPass]@]DBHost[:DBPort]]/DBName/[?dbmode=mode]

DBAddr sqlite://mnogo:@/home/doms/example.com/mnogosearch/mnogosearch.db/?dbmode=multi

# Default LocalCharset is iso-8859-1 (latin1).

# Full UNICODE
# Folgendes auskommentieren für iso-8859-1
LocalCharset UTF-8

###########################################################################
# StopwordFile <filename>
# Load stop words from the given text file. You may specify either absolute 
# file name or a name relative to mnoGoSearch /etc directory. You may use
# several StopwordFile commands.
#
StopwordFile stopwords/de.sl


#######################################################################
# HTTPHeader <header>
# You may add your desired headers in indexer HTTP request.
# You should not use "If-Modified-Since","Accept-Charset" headers,
# these headers are composed by indexer itself.
# "User-Agent: mnoGoSearch/version" is sent too, but you may override it.
# Command has global effect for all configuration file.
#
HTTPHeader "User-Agent: example.com-indexer"

##########################################################################
# Section 2.
# URL control configuration.

# Allow Configuration
# Examples
#  Allow everything:
#Allow *
#  Allow everything but .php .cgi .pl extensions case insensitively using regex:
#Allow NoMatch Regex \.php$|\.cgi$|\.pl$
#  Allow .HTM extension case sensitively:
#Allow Case *.HTM

Allow *.html

##########################################################################
#Disallow [Match|NoMatch] [NoCase|Case] [String|Regex] <arg> [<arg> ... ]
#
# Examples:
# Disallow URLs that are not in udm.net domains using "string" match:
#Disallow NoMatch *.udm.net/*
# Disallow any except known extensions and directory index using "regex" match:
#Disallow NoMatch Regex \/$|\.htm$|\.html$|\.shtml$|\.phtml$|\.php$|\.txt$
# Exclude cgi-bin and non-parsed-headers using "string" match:
#Disallow */cgi-bin/* *.cgi */nph-*
# Exclude anything with '?' sign in URL. Note that '?' sign has a 
# special meaning in "string" match, so we have to use "regex" match here:
#Disallow Regex  \?


# Exclude some known extensions using fast "String" match:
Disallow *.b    *.sh   *.md5  *.rpm
Disallow *.arj  *.tar  *.zip  *.tgz  *.gz   *.z     *.bz2 
Disallow *.lha  *.lzh  *.rar  *.zoo  *.ha   *.tar.Z
Disallow *.gif  *.jpg  *.jpeg *.bmp  *.tiff *.tif   *.xpm  *.xbm *.pcx
Disallow *.vdo  *.mpeg *.mpe  *.mpg  *.avi  *.movie *.mov  *.wmv
Disallow *.mid  *.mp3  *.rm   *.ram  *.wav  *.aiff  *.ra
Disallow *.vrml *.wrl  *.png  *.ico  *.psd  *.dat
Disallow *.exe  *.com  *.cab  *.dll  *.bin  *.class *.ex_
Disallow *.tex  *.texi *.xls  *.doc  *.texinfo
Disallow *.rtf  *.pdf  *.cdf  *.ps
Disallow *.ai   *.eps  *.ppt  *.hqx
Disallow *.cpt  *.bms  *.oda  *.tcl
Disallow *.o    *.a    *.la   *.so 
Disallow *.pat  *.pm   *.m4   *.am   *.css
Disallow *.map  *.aif  *.sit  *.sea
Disallow *.m3u  *.qt

# Exclude Apache directory list in different sort order using "string" match:
Disallow *D=A *D=D *M=A *M=D *N=A *N=D *S=A *S=D

# More complicated case. RAR .r00-.r99, ARJ a00-a99 files 
# and UNIX shared libraries. We use "Regex" match type here:
Disallow Regex \.r[0-9][0-9]$ \.a[0-9][0-9]$ \.so\.[0-9]$

################################################################
# Section 3.
# Mime types and external parsers.

################################################################
#AddType [String|Regex] [Case|NoCase] <mime type> <arg> [<arg>...]
# This command associates filename extensions (for services
# that don't automatically include them) with their mime types.
# Currently "file:" protocol uses these commands.
# Use optional first two parameter to choose comparison type.
# Default type is "String" "NoCase" (case sensitive string match with
# '?' and '*' wildcards for one and several characters correspondingly).
#
AddType image/x-xpixmap	*.xpm
AddType image/x-xbitmap	*.xbm
AddType image/gif	*.gif

AddType	text/plain			*.txt  *.pl *.js *.h *.c *.pm *.e
AddType	text/html			*.html *.htm

AddType text/rtf			*.rtf
AddType application/pdf			*.pdf
AddType application/msword		*.doc
AddType application/vnd.ms-excel	*.xls
AddType text/x-postscript		*.ps

# Default unknown type for other extensions:
AddType	application/unknown *.*


# Use ParserTimeOut to specify amount of time for parser execution
# to avoid possible indexer hang.

ParserTimeOut 300

#######################################################################
# Section 5.
# Servers configuration.

#######################################################################
# Document sections.
#
# Format is:
#
#   Section <string> <number> <maxlen> [clone] [sep] [{expr} {repl}]
#
# where <string> is a section name and <number> is section ID
# between 0 and 255. Use 0 if you don't want to index some of 
# these sections. It is better to use different sections IDs
# for different documents parts. In this case during search 
# time you'll be able to give different weight to each part
# or even disallow some sections at a search time.
# <maxlen> argument contains a maximum length of section
# which will be stored in database.
# "clone" is an optional parameter describing whether this
# section should affect clone detection. It can 
# be "DetectClone" or "cdon", or "NoDetectClone" or "cdoff".
# By default, url.* section values are not taken in account
# for clone detection, while any other sections take part
# in clone detection.
# "sep" is an optional argument to specify a separator between
# parts of the same section. It is a space character by default.
# "expr" and "repl" can be used to extract user defined sections,
# for example pieces of text between the given tags. "expr" is
# a regular expression, "repl" is a replacement with $1, $2, etc
# meta-characters designating matches "expr" matches.

# Standard HTML sections: body, title

Section	body			1	256
Section title			2	128

# META tags
# For example <META NAME="KEYWORDS" CONTENT="xxxx">
#

Section meta.keywords		3	128
Section	meta.description	4	128

# HTTP headers example, let's store "Server" HTTP header
#
#
#Section header.server		5	64


# Document's URL parts

Section url.file		6	0
Section url.path		7	0
Section	url.host		8	0
Section url.proto		9	0

# CrossWords

Section crosswords		10	0

#
# If you use CachedCopy for smart excerpts (see below), 
# please keep Charset section active.
#
Section Charset 		11 	32

Section Content-Type		12	64
Section Content-Language	13	16

# Uncomment the following lines if you want tag attributes
# to be indexed

#Section attribute.alt		14	128
#Section attribute.label	15	128
#Section attribute.summary	16	128
#Section attribute.title	17	128
#Section attribute.face		27	0

# Uncomment the following lines if you want use NewsExtensions
# You may add any Newsgroups header to be indexed and stored in urlinfo table

#Section References		18	0
#Section Message-ID		19	0
#Section Parent-ID		20	0

# Uncomment the following lines if you want index MP3 tags.
#Section MP3.Song           	21    128
#Section MP3.Album          	22    128
#Section MP3.Artist         	23    128
#Section MP3.Year           	24    128

# Comment this line out if you don't want to store "cached copies"
# to generate smart excerpts at search time.
# Don't forget to keep "Charset" section active if you use cached copies.
# NOTE: 3.2.18 has limits for CachedCopy size, 32000 for Ibase and
# 15000 for Mimer. Other databases do not have limits.
# If indexer fails with 'string too long' error message then reduce
# this number. This will be fixed in the future versions.
#
Section CachedCopy		25 64000

# A user defined section example.
# Extract text between <h1> and </h1> tags:
#Section h1			26 128 "<h1>(.*)</h1>" $1

#########################################################################
#Server [Method] [SubSection] <URL> [alias]
# This is the main command of the indexer.conf file. It's used 
# to describe web-space you want to index. It also inserts
# given URL into database to use it as a start point.
# You may use "Server" command as many times as a number of different
# servers or their parts you want to index.

# To index whole server "www.example.com":
Server http://www.example.com/

Unbedingt im ganzen Dokument example.com durch den eigenen Domainnamen ersetzen!

Datenbank erstellen

Die Datenbank wird mit dem Programm indexer erstellt. Dabei muss indexer natürlich (und wie bei jedem Aufruf) der Pfad zur eigenen Konfiguration mitgeteilt werden.

# /usr/sbin/indexer -Ecreate /home/doms/example.com/mnogosearch/indexer.conf

Erster Indexlauf

# /usr/sbin/indexer -a /home/doms/example.com/mnogosearch/indexer.conf

Mit diesem Befehl wird die Datenbank gefüllt. Wir haben in der Konfigurationsdatei definiert, dass alle Seiten mit der Endung .html unter http://www.example.com/ durchsucht und indiziert werden.

Die Option -a ersetzt alle vorhandenen Einträge.

Die Suche auf der eigenen Webseite

Damit die Suche funktionieren kann, legen wir einen symbolischen Link zu dem Suchprogramm /usr/lib/cgi-bin/search.cgi in das eigene cgi-Verzeichnis:

# ln -s /usr/lib/cgi-bin/search.cgi /home/doms/example.com/cgi/search.cgi

Das zugehörige Suchformular kann entweder von /etc/mnogosearch/search.htm in das eigene Webverzeichnis kopiert (mit der Endung "zhtml" - siehe weiter unten) und anschließend editiert werden. Wichtig ist der Verweis auf die eigene Datenbankdatei in der Sektion "variables" ganz zu Beginn:

DBAddr sqlite://mnogo:@/home/doms/example.com/mnogosearch/mnogosearch.db/?dbmode=multi


Minimales Suchformular in Deutsch

Folgendes Formular ist bereits eingedeutscht und kann direkt als /home/doms/example.com/subs/www/suche.zhtml abgespeichert werden (man beachte die Endung "zhtml"):

# start
<!--variables
# Database parameters
# Format: <DBType>:[//[DBUser[:DBPass]@]DBHost[:DBPort]]/DBName/[?dbmode=mode]
DBAddr sqlite://mnogo:@/home/doms/example.com/mnogosearch/mnogosearch.db/?dbmode=multi

# Use proper local and browser charsets
# Default charset is iso-8859-1 (latin1)
# which is suitable for the most Western European languages

# Comment this for iso-8859-1
LocalCharset   utf-8
BrowserCharset utf-8

# Minimum and maximum word lengths
#
#MinWordLength 1
#MaxWordLength 32

# Number of pages in navigator bar
#
#PagesPerScreen 10

# How to hilight searched words.
#
HlBeg	'<span style="background-color: #ff0; color: #f00; font-weight: bold;">'
HlEnd	'</span>'

# Suche auf html-dokumente beschraenken
ReplaceVar type "text/html"

# Suche auf auf Wortanfang erweitern
# Suche nach "gut" findet auch "gute"
# wirkt wie suchwort*
ReplaceVar wm "beg"

-->

<!--top-->
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=$&(BrowserCharset)" />
<title>Suche: $&(q)</title>
<style type="text/css">
body { background-color: #fff; }
a { color: #00c; }
div.center { text-align: center; }
table.grey { background-color: #eee; width: 100%; }
table.white { background-color: #fff; width: 100%; }
img.logo { border: none; }
</style>
</head>

<body>

<div class="center">
<form method="get" action="">
<table class="grey" summary="">
  <tr>
    <td>
      <br /> Suche nach:
      <INPUT TYPE="text"   NAME="q"    VALUE="$&(q)" SIZE=50 />
      <INPUT TYPE="submit" NAME="cmd" VALUE="Suche!" />
      <br /><br />
    </td>
  </tr>
</table>
</form>
</div>

<!--/top-->

<!--restop-->
<table bgcolor=#EEEEEE width=100% border=0>
  <tr>
    <td>
      <small>Suche nach <b>$&(q)</b>.</small>
      <small>Gefunden: <b>$&(WE)</b>.</small>
    </td>
    <td>
      <small>Ergebnisse <b>$(first)-$(last)</b> von <B>$(total)</B>.</small>
      <small>Die Suche dauerte <b>$(SearchTime)</b> Sekunden</small>
    </td>
  </tr>
  <tr><td colspan="2">
      Sortieren:
      <!IF NAME="s" CONTENT="DRP">
      <a href="$(FirstPage)&s=RPD">Relevanz</a> | <b>Datum</b> | <a href="$(FirstPage)&s=SRPD&su=title">Titel</a>
      <!ELSEIF NAME="s" CONTENT="SRPD">
      <a href="$(FirstPage)&s=RPD">Relevanz</a> | <a href="$(FirstPage)&s=DRP">Datum</a> | <b>Titel</b>
      <!ELSE>
      <b>Relevanz</b> | <a href="$(FirstPage)&s=DRP">Datum</a> | <a href="$(FirstPage)&s=SRPD&su=title">Titel</a>
      <!ENDIF>
  </td></tr>
</table>
<br />

<!--/restop-->

<!--res-->
<DL>
<!IFNOT NAME="Alias" CONTENT=""><!COPY NAME="URL" CONTENT="Alias"><!ENDIF>
<!IF   NAME="fmt" CONTENT="url">
  <DT>$(Order).
  <a href="$(URL)">$(URL:40)</a>
  <small>[<b>$(Score)</b>]</small>
<!ELSEIF NAME="fmt" CONTENT="short">
  <DT>$(Order).
  <a href="$(URL)">
    <!IF NAME="Title" CONTENT="">$(URL:40)<!ELSE>$&(Title)<!ENDIF>
  </a>
  <small>[<b>$(Score)</b>]</small>
<!ELSE>
  <DT>$(Order).
  <a href="$(URL)">
    <!IF NAME="Title" CONTENT="">$(URL:40)<!ELSE>$&(Title)<!ENDIF>
  </a>
  <small>
   [
    <b>$(Score)</b>
    <!IFNOT NAME="Pop_Rank" CONTENT="0.00000">Popularity: <b>$(Pop_Rank)</b><!ENDIF>
   ]
  </small>
  <DD>
  <table width=60%>
    <tr>
      <td>
        <small>$&(Body)...</small>
      </td>
    </tr>
    <tr>
      <td>
        <UL>
         <li>
           <small>
             <A HREF="$(URL)">$(URL:40)</A>
             <font color="#008800">
              - $(Content-Length) bytes [$(Content-Type)] 
              - $(Last-Modified) 
	      <!IFNOT NAME="stored_href" CONTENT="">
	      <DD><small>[<a href="$(stored_href)">Cached copy</a>]</small></DD>
	      <!ENDIF>
	      <!IFNOT NAME="sitelimit_href" CONTENT="">
	      <!IFGT NAME="PerSite" CONTENT="0">
	      <DD><small>
              [<a href="$(sitelimit_href)">More results from this site ($(PerSite) total) </a>]
	      </small></DD>
	      <!ENDIF>
	      <!ENDIF>
             </font>
           </small>
           <BR>
           $(CL)
        </UL>
        $(STORED)
	
      </td>
    </tr>
  </table>
  
<!ENDIF>
</DL>
<!--/res-->

<!--resbot-->
<table width=100% bgcolor=#FFFFFF>
  <tr>
    <td align=center>
      <TABLE BORDER=0>
        <TR><TD><small>Ergebnis Seiten: <TD> </TD></TD>$(NL)$(NB)$(NR)</TD></TR>
      </TABLE>
    </td>
  </tr>
</table>
<!--/resbot-->


<!--clone-->
<!IFNOT NAME="Alias" CONTENT=""><!COPY NAME="URL" CONTENT="Alias"><!ENDIF>
<li>
<small>
  <A HREF="$(URL)">$(URL:40)</A>
  <font color="#008800">
  - $(Content-Length) bytes
  - $(Last-Modified) 
  </font>
</small>
<!--/clone-->

<!--navleft-->
<TD><small><A HREF="$(NH)"><< Vorherige</A></TD>
<!--/navleft-->

<!--navleft_nop-->
<TD><small><FONT COLOR=gray><< Vorherige</FONT></TD>
<!--/navleft_nop-->

<!--navbar1-->
<TD><small><A HREF="$(NH)">$(NP)</A></TD>
<!--/navbar1-->

<!--navbar0-->
<TD><small>$(NP)</TD>
<!--/navbar0-->

<!--navright-->
<TD><small><A HREF="$(NH)">Nächste >></A></TD>
<!--/navright-->

<!--navright_nop-->
<TD><small><FONT COLOR=gray>Nächste >></FONT></TD>
<!--/navright_nop-->

<!--notfound-->
<!IFNOT NAME="WS" CONTENT="">
Meinten Sie <b><a href="?q=$%(WS)">$(WS)</a></b>?
<!ENDIF>
<table bgcolor=#EEEEEE width=100%>
  <tr>
    <td>
      <small>Suche nach <b>$&(q)</b>.</small>
      <small>Suchergebnisse: <b>$&(WE)</b></small>
    </td>
  </tr>
</table>

<p>
Sorry, Ihre Suche nach <b>$&(q)</b> hat kein Ergebnis.<br>
Es wurden keine Dokumente gefunden, die <b>"$&(q)" enthalten</b>.<br>

<p>
Hinweise:
<UL>
  <LI> Stellen Sie sicher, dass Ihre Wörter richtig geschrieben sind.
  <LI> Versuchen Sie andere Suchworte.
  <LI> Versuchen Sie allgemeinere Suchwörter. 
</UL>
<!--/notfound-->



<!--noquery-->
<div class="center">Bitte geben Sie eines oder mehrere Wörter ein und dücken Sie Suche.</div>
<!--/noquery-->

<!--error-->
<CENTER>
<FONT COLOR="#FF0000">Es ist ein Fehler aufgetreten!</FONT>
<P><B>$(E)</B>
</CENTER>
<!--/error-->

<!--bottom-->
<table class="grey" summary="">
  <tr><td> </td></tr>
</table>

</body>
</html>
<!--/bottom-->

<!--storedoc_top-->
<BASE HREF="$(URL)">

<table border="1" cellpadding="2" cellspacing="0"><tr>
<td><b>Document ID:</b> $(ID)</td>
<td><b>Last modified:</b> $(Last-Modified)</td>
<td><b>Language:</b> $(Content-Language)</td>
<td><b>Charset:</b> $(Charset)</td>
<td><b>Size:</b> $(Content-Length)</td>
</tr></table>
<hr>
<!--/storedoc_top-->

<!--storedoc-->
$^(document)
<!--/storedoc-->

<!--storedoc_bottom-->
<!--/storedoc_bottom-->

suche.zhtml sucht search.cgi

Das Suchformular hat keine "action" definiert, es wird per .htaccess an search.cgi als Template übergeben:

Wenn noch nicht vorhanden, im gleichen Verzeichnis, in dem das Suchformulat liegt (in diesem Fall ~/doms/example.com/subs/www), eine Datei .htaccess erstellen und editieren:

# touch .htaccess
# edit .htaccess

Und da folgendes reinschreiben (vorausgesetzt, das Formular heißt suche.zhtml):

AddType text/html .zhtml
AddHandler zhtml .zhtml
Action zhtml /home/doms/example.com/cgi/search.cgi

Nun kann das Suchformular im Browser angezeigt und verwendet werden:

http://www.example.com/suche.zhtml

Es gibt etliche weitere Möglichkeiten, search.cgi zu benutzen, sie stehen in der Dokumentation.

Cronjob zum Update der Suchdatenbank in der Nacht

Sollten sich die Webseiten öfter mal ändern, ist es sinnvoll, die Suchdatenbank nachts zu aktualisieren. Die Datei für die eigenen Cronjobs wird editiert:

# crontab -e

und reingeschrieben wird das:

# suche mnogosearch indexer
19 23 * * *     nice indexer /home/doms/example.com/mnogosearch/indexer.conf

Bitte eine andere Uhrzeit wählen, damit nicht alle indexer-Jobs um 23:19 Uhr anlaufen!!!

Kompilieren der Mnogosearch aus den Sourcen

Diese Anleitung ist sehr auf die Zusammenarbeit mit dem CMS TYPO3 ausgerichtet. So sind zum Beispiel die Konfigurationseinstellungen zum kompilieren aus dem Manual der TYPO3 Extension mnogosearch entnommen. Im Grunde bin ich einfach den Anweisungen dort gefolgt, mußte aber wegen HS-spezifischen Gründen an manchen Stellen einen anderen Weg gehen.

Ich habe Mnogosearch mit einem Domainuser kompiliert. Ich denke das das grundsätzlich auch mit einem Paketadmin funktioniert, aber eventuell zu unsicher ist.

Runterladen und auspacken

Zuerst wechseln wir ins Homeverzeichnis (~) des Users, laden uns den Quellcode runter und entpacken das Archiv.

cd ~
// stets die neueste Version benutzen
wget http://www.mnogosearch.org/Download/mnogosearch-3.3.9.tar.gz
tar xvf mnogosearch-3.3.9.tar.gz

Anpassen der Dateien

Sollte man ausschließend eine MySQL Datenbank verwenden, muß vor dem kompilieren die Dateien ./configure.in und ./configure bearbeiten. In beiden Dateien suchen wir nach dem String HAVE_PGSQL und ändern die 1 in eine 0.

cd mnogosearch-3.3.9
$yourEditor configure.in
AC_DEFINE([HAVE_PGSQL], [1], [Define if you want to use PostgreSQL])

Configure

Hinweis: Hier gibt es zwei wichtige Änderungen gegenüber des Manuals.

  • der Installationpfad muss angepasst werden, da wir keine Schreibrechte für /opt/ besitzen
  • der Pfad zu der Datei mysql.h muss angegeben werden
./configure --prefix=/path/to/user/home/opt/mnogosearch --with-mysql=/usr --disable-mp3 --disable-news --without-debug --with-pgsql=no --with-freetds=no --with-oracle8=no --with-oracle8i=no --with-iodbc=no --with-unixODBC=no --with-db2=no --with-solid=no --with-openlink=no --with-easysoft=no --with-sapdb=no --with-ibase=no --with-ctlib=no --with-zlib --disable-syslog

Kompilieren und Installation der Suchengine

Bevor es zum kompilieren kommen, müssen wir noch eine erzeugte Datei bearbeiten und ändern dort den String /* #undef HAVE_PGSQL */ in #undef HAVE_PGSQL.

cd mnogosearch-3.3.9
$yourEditor include/udm_autoconf.h

Jetzt kompilieren und installieren wir Mnogosearch

make
make install

Kompilieren und Installation der PHP Extension

Hinweis:

  • der Pfad zur Suchengine muss angepasst werden (ist derselbe Pfad wie in dem --prefix Argument)
cd ~/mnogosearch-3.3.9/php
phpize
./configure --with-mnogosearch=/path/to/user/home/opt/mnogosearch

Jetzt müssen wir die Datei php_mnogo.c editieren und den String #undef HAVE_PGSQL in eine neue Zeile unterhalb von #include "php.h" einfügen.

Jetzt können wir die Extension bauen.

make

Die PHP Extension liegt jetzt in dem Ordner ~/mnogosearch-3.3.9/php/modules. Am Besten kopiert man sich die Extension in den CGI Ordner einer Domain oder ebenfalls nach ~/opt.

Um die Extension nun nutzen zu können, editieren wir die eigene php-cgi-fcgi.ini und fügen am Ende

extension=relativer/Pfad/vom/PHP-Extension/Verzeichnis/zu/mnogosearch.so

ein.

Das aktuelle Extension Dir erhält man so:

php -i | grep extension_dir

Von diesem Verzeichnis ausgehend hangelt man sich bis zu dem Verzeichnis, in das man eben die PHP Extension kopiert hat. Das ist notwendig, da in PHP 5.2 keine multiplen Extension Dirs in der php.ini eingetragen werden können. Eigene Extensions können nur relativ referenziert werden.

Das Ergbnis sollte man noch in einer mittels phpinfo überprüfen. Wenn alles funktioniert hat, sollte in der Übersicht mnogosearch auftauchen. Ist dies nicht der Fall empfielt es sich das Errorlog von PHP anzuschalten und zu schauen, was schief läuft. Oft liegt das einfach an dem falschen relativen Pfad zur Extension.

Den weiteren Installationablauf entnimmt man am Besten dem Manual zur TYPO3 Extension. nach dem Installieren der Extension in TYPO3 muss man den Pfad zu der Suchengine von /opt/mnogosearch entsprechend anpassen. In unserem Fall wäre das /path/to/user/home/opt/mnogosearch