Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: [login to view URL]
Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron.
Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'.
Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'.
Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpytywania whois.
Program powinien też koniecznie korzystać z proxy. Sugeruję dodać obsługę Proxy Marketu.
Witam,
prosiłbym o bardziej szczegółową specyfikację.
Jakie cechy musi posiadać aplikacja z tych uwzględnionych z WinWebClawler`a ?
Czy wyszukiwanie adresów ma się odbywać z gotowych silników wyszukiwarek(google, yahoo, itp.)?
Czy aplikacja ma zczytywać pod strony ze strony podanej do wyszkiwania ?
Czy aplikacja będzie w formie komercyjnej ? Jeśli tak, to ma posiadać instalator i zabezpieczenie w postaci licencji użytkownika ?
Jaki interfejs ma posiadać aplikacja ? Czy zbliżony do winclawler`a oparty na kontrolkach windows czy bardziej graficzny ?
Ostateczna wycena podana po zatwierdzeniu końcowej specyfikacji.
Portfolio dostępne po wybraniu profilu.
Witam serdecznie.
Chętnie wykonam Państwa zlecenie.
Gwarantuję terminowość oraz zrealizowanie wszystkich powierzonych zadań z najwyższą dokładnością.
Zapraszam do kontaktu w celu omówienia szczegółów zlecenia.
+44 777 866 1466