bgpw blog

    blog Biblioteki Głównej PW

    Wpisy z okresu: 1.2010

    Nasza Biblioteka zadebiutowała na początku stycznia w Facebook’u pod nazwą:
    Biblioteka Główna Politechniki Warszawskiej.
    Zapraszamy do użytkowników i pracowników BGPW do śledzenia informacji i wydarzeń na stronie Biblioteki w serwisie FaceBook, a także do dyskusji, komentowania, zgłaszania uwag.
    Czekamy na fanów Biblioteki.

    MM

    Tydzień temu uruchomiony został serwis Open AGH, r  repozytorium otwartych zasobów edukacyjnych (OZE), przygotowanych przez pracowników i studentów AGH, administrowany przez Centrum e-Learningu AGH.
    Materiały umieszczone w Open AGH objęte są licencją Creative Commons: Uznanie autorstwa – Użycie niekomercyjne – Na tych samych warunkach. Każdy uzytkownik serwisu może je (darmowo) kopiować, rozprowadzać, przedstawiać przy zachowaniu 3 warunków:
    podaniu autora oryginalu i adres strony, z której ją pobrał
    (Open AGH w tym przypadku), może ją wykorzystywać tylko do celów niekomercyjnych, a prace zależne musi
    udostępniać na tej samej licencji.
    Wszystkie wymogi uzytkowania podane są w Zasadach Licencjonowania oraz w Regulaminie na stronie repozytorium.
    Z Regulaminu wynika, że autorami publikacji moga być wyłącznie pracownicy, studenci i doktoranci AGH.
    Treść może być dowolna przy czym dowolność oznacza tematykę niekoniecznie związaną z działanością naukową lub zawodową, ale mają to być materiały dydaktyczne, zamieszczane wyłącznie po akceptacji opiekunów naukowych, będących pracownikami AGH i bioracymi na siebie odpowiedzialność merytoryczną publikacji.

    W chwili otwarcia serwisu w repozytorium było 69 kursów.
    Dostępne zasoby można przeglądać wg kategorii kursów lub wyszukiwać korzystając z wyszukiwarki.
    Można otrzymywać wiadomości z serwisu za pomocą RSS, zostać fanem repozytorium czy dodac go do obserwowanych.

    Więcej informacji na stronie:

    repozytorium Open AGH
    Koalicja Otwartej Edukacji

    MM

    12 stycznia odbyła się w Warszawie XVI edycja konferencji z cyklu Digitalizacja, zorganizowana przez CPI.
    Tym razem poświęcona była aspektom prawnym i technologicznym digitalizacji piśmiennictwa.
    Wykład inauguracyjny „Źródło historyczne jako przedmiot digitalizacji” wygłosiła prof. Dr hab. Daria Nałęcz,
    zaczynając od definicji źródła historycznego i terminu ‘digitalizacja’, poprzez próbę określenia celów digitalizacji, przechodząc do doświadczeń polskich i światowych. Polskie doświadczenia prelegentka określiła jako fazę początkową, charakteryzującą się rozproszeniem inicjatyw, przedsięwzięciami niedojrzałymi, dublowaniem działań. Zaskoczeniem jest, że prof. Nałęcz nie dostrzegła sukcesu Federacji Bibliotek Cyfrowych, grupujących prawie 50 polskich bibliotek cyfrowych, która to Federacja wprowadziła przecież w grudniu do Europeany ok. 300 tys. zdigitalizowanych publikacji, podnosząc tym samym polski udział w Europejskiej Bibliotece Cyfrowej z nikłego 0.4% (sama POLONA) do znaczących 5,5%. Przy okazji warto wspomnieć, że FBC daje też możliwość zapoznania się z planami digitalizacyjnymi bibliotek cyfrowych i narzędzie wykrywające dublety.
    Nadzieję na wyjście z fazy początkowej prof. Nałęcz widzi w przyszłej realizacji polskiej biblioteki cyfrowej w konkursie ogłoszonym przez NCBiR oraz na opracowaniu standardów i pomocy dla wielu instytucji działających w rozproszeniu. Standardy oczywiście ważne, ale prace nad tym zagadnieniem trwają od dawna i pewne osiągnięcia w tym zakresie też już odnotowano. Wszak już w 2006 r. został powołany zespól ds. digitalizacji przy Min. Kultury i Dziedzictwa Narodowego (jako ciało doradcze), który zajmował się właśnie wypracowaniem strategii digitalizacji i standardów digitalizacyjnych. Zespół przygotował kilka dokumentów, m.in. książkę „Standardy w procesie digitalizacji obiektów dziedzictwa kulturowego”, dostępną zresztą on-line z naszej Biblioteki Cyfrowej PW.
    Jak wspomniał w późniejszym wystąpieniu dr Tomasz Makowski, zespól został w maju 2009 r. powołany ponownie i działa już jako koordynator rozwoju digitalizacji w Polsce. Wypracowywaniem standardów
    zajmuje się też po części Federacja Bibliotek Cyfrowych, przy wsparciu PCSS. O tyle cenna działalność, że
    mocno oparta o codzienną, wieloletnią już praktykę i współpracę informatyków i bibliotekarzy. Poza tym powołane zostały 4 centra kompetencyjne (o których mówił dyr. Tomasz Makowski) dla bibliotek, archiwów,
    muzeów i instytucji gromadzących zbiory audiowizualne (Biblioteka Narodowa, Narodowe Archiwum
    Cyfrowe, Krajowy Ośrodek Badań Dokumentacji i Zabytków, Narodowy Instytut Audiowizualny).
    Wyłonienie znaczących grup odbiorców projektowanej digitalizacji powinno być poprzedzone, zdaniem prelegentki, przeprowadzeniem badań. Wśród głównych beneficjentów digitalizacji prof. Nałęcz widzi
    naukowców, nauczycieli, uczniów, studentów, dziennikarzy, genealogów. Pozostali użytkownicy to wg prelegentki osoby, które poszukują rozrywki, grupa wymagająca wszechstronnej pomocy, nie potrafiąca samodzielnie korzystać z nieopatrzonych komentarzami źródeł, której ewentualnie można zaproponować zdigitalizowane lekkie czasopisma, typu dawne „Szpilki”. Trochę to znowu zaskakujące podejście, szczególnie w kontekście idei otwartej edukacji, budowy społeczeństwa informacyjnego itp., o czym mówił później Aleksander Tarkowski. O znaczeniu digitalizacji, jako rozwiązaniu zapobiegającemu wykluczeniu polskich obywateli z dostępu do dóbr kultury wspominał również dr Tomasz Makowski.
    Prowadzący konferencję dr Henryk Hollender  w wykładzie „Postępy cyfryzacji – z punktu widzenia
    użytkownika”, doceniając niewątpliwe osiągnięcie polskich bibliotek cyfrowych w postaci agregacji danych w ramach FBC i włączenie polskich zasobów do Europeany, zwrócił uwagę na niedocenianie przez naukowców użyteczności bibliotek cyfrowych. Użytkownicy  nie są często w ogóle świadomi, że korzystają z biblioteki cyfrowej, wyszukując książkę zazwyczaj bezpośrednio w Google. Zdaniem dr Hollendra  słabym punktem bibliotek cyfrowych jest brak ich specjalizacji, nie wykorzystanie możliwości jakie daje podział na kolekcje, a także informacji, jaką dają katalogi biblioteczne.
    Bardzo ciekawym punktem konferencji była prezentacja  Yaniv’a Levi (Ex Libris Ltd.) dotycząca ochrony zbiorów cyfrowych w Bibliotece Narodowej Nowej Zelandii. Przedsięwzięcie realizowane przez firmę Exlibris i Bibliotekę Narodową Nowej Zelandii to Rosetta system długookresowej ochrony zbiorów cyfrowych. System obejmuje magazynowanie danych, walidację, dostęp i trwałe repozytorium, zapewniające konwersje na nowe technologie i nośniki. System, bazujący na sprawdzonych standardach (model danych PREMIS i METS, metadane w DublinCore) ma być wsparciem dla wielu typów instytucji potrzebujących ochrony zbiorów (muzeów, bibliotek, archiwów). Jednocześnie Rosetta to system otwarty, potrafiący wykorzystać infrastrukturę obecna już w bibliotece.


    Kolejnym prelegent, Piotr Waglowski zajął się tematem prawa autorskiego i udostępniania piśmiennictwa w
    Internecie. Zwrócił uwagę na brak definicji (w sensie prawnym) domeny publicznej, a także materiałów
    urzędowych, które zgodnie z ustawą nie są przedmiotem prawa autorskiego. Problem w tym, że nie zdefiniowano do tej pory co jest materiałem urzędowym, a co nim nie jest Wskazał na przypadki powrotu
    niektórych dzieł już zakwalifikowanych do domeny publicznej (minęło 70 lat od śmierci twórcy) do strefy
    chronionej. Np. Dzienniczek siostry Faustyny, wg sióstr zakonnych nadal jest chroniony prawem autorskim,
    gdyż został zredagowany już po śmierci siostry Faustyny. Podobnie za chronione ponownie mogą być uznane np. nieme filmy po renowacji (np. barwienie).
    Wykład dyrektora Biblioteki Narodowej, wspomnianego już kilkakrotnie, dr Tomasza Makowskiego – „Polska strategia digitalizacji a Google Book Search”  wykazał, że brak rozbudowanych zasobów digitalizacyjnych oznacza regres cywilizacyjny kraju. Instytucją odpowiedzialną za tworzenie polskich zasobów cyfrowych jest Ministerstwo Kultury i Dziedzictwa Narodowego przy współpracy Ministerstwa Nauki i Szkolnictwa Wyższego. Główne cele digitalizacji to zachowanie dóbr kultury i zapewnienie dostępu do nich polskim obywatelom. Priorytety przy wyborze zbiorów do digitalizacji to: użyteczność zasobów, zły stan zachowania obiektów, szczególne znaczenie dla kultury. Program digitalizacji dóbr kultury na lata 2009-2020 zakłada, że do roku 2020 ma zostać zdigitalizowane ok. 18 mln obiektów. Prognozowany koszt to ok. 2 mld zł.
    Największy koszt to nie sam proces digitalizacji tylko trwałe, wieczyste przechowywanie danych.
    Jednym z głównych problemów w realizacji digitalizacji dóbr kultury jest fakt, że 90% literatury należy do
    strefy chronionej. Tu, jak słusznie zauważył prelegent, autorzy, którzy np. zmarli 50 lat temu, mając
    świadomość tych restrykcji w przyszłości, może zgodziliby się uwolnić swoje dzieła. Nie wydaje się jednak, żeby groziło nam skrócenie okresu ochrony majątkowych praw autorskich , raczej, jak wspominał Piotr Waglowski, zdarzają się sytuacje odwrotne.
    Dr Makowski wskazał też na ewentualne zagrożenie w dostępie do zdigitalizowanych zasobów ze strony
    projektu Google Book Search – monopol, który zyskuje firma komercyjna w przyszłości może zaowocować opłatami czy innymi ograniczeniami dostępu.
    O idei otwartej nauki oraz projektach ICM (Biblioteka Wirtualnej Nauki i pokrewne) mówił Aleksander
    Tarkowski. Otwarta nauka oznacza publiczne finansowanie i otwarty dostęp do wszelkiego rodzaju treści
    naukowych, ale przede wszystkim zmianę mentalną w stosunku do spraw własności intelektualnej. I to może właśnie jest podstawowy problem związany i z digitalizacją i z udostępnianiem publikacji naukowych – zmiana sposobu myślenia o publikacji, nie jak o zakończonym, wyodrębnionym akcie, ale o elemencie procesu dynamicznego. Cele dla Polski to: powszechna dostępność zasobów światowych i polskich i ich integracja, zapewnienie wieczystego przechowywania, konwergencja systemów nauki, edukacji, kultury, ograniczenie zasobów limitowanych do racjonalnego minimum.
    Podstawowa zasada to trwałość dostępu i gwarancja niezmiennych zasad.

    MM

    Rok 2009 minął – warto może wspomnieć coś o statystykach odwiedzin. Niestety raporty Google Analytics rejestrują się dopiero od października. Ogólne tendencje można jednak pokazać chociażby w raporcie z grudnia.
    W ciągu grudnia odwiedziło nas 505 osób (1235 w ciągu 3 ostatnich miesięcy),  z czego 39% były to odwiedziny nowe (czyli osób, które zajrzały tu po raz pierwszy).

    Odwiedziny bezpośrednie to tylko niecałe 7%. Zdecydowanie najwięcej osób (85%) wchodzi z witryn odsyłających z czego znakomita większość ze strony naszej biblioteki.

    Witryny odsyłające do naszego bloga:

    Dokładniejsze raporty z odwiedzalności naszego bloga (z ostatnich 3 miesięcy 2009 r.) można obejrzeć tu:

    http://www.bg.pw.edu.pl/blog/raporty2009/

    MM

    Powered by WordPress Web Design by SRS Solutions © 2017 bgpw blog Design by SRS Solutions

    • RSS