@abcdef, post #501
@Daclaw, post #504
@ZbyniuR, post #511
In the late 80s, after the release of IBM's VGA, third-party manufacturers began making graphics cards based on its b]specifications with extended capabilities[/b]. As these cards grew in popularity they began to be referred to as "Super VGA."Gwoli przypomnienia VBE w używalnej wersji zostało zaadaptowane bodajże w okolicach 1994.
This term was not an official standard, but a shorthand for enhanced VGA cards which had become common by 1988. One card that explicitly used the term was Genoa's SuperVGA HiRes.
Super VGA cards broke compatibility with the IBM VGA standard, requiring software developers to provide specific display drivers and implementations for each card their software could operate on.
Initially the heavy restrictions this placed on software developers slowed the uptake of Super VGA cards, which motivated VESA to produce a unifying standard, the VESA BIOS Extensions, to provide a common software interface to all cards implementing the VBE specification.
The VBE standardized resolutions of 800×600, 1024x768 and 1280x1024 with 4- and 8-bit color depths. Eventually graphics adapters under the Super VGA umbrella would support an innumerable quantity of modes.
@abcdef, post #506
Teraz... na gołej A1200 - jaka jest najwyższa głębia i rozdzielczość dla AGA która powoduje, że procesor mieląc grę nie będzie musiał czekać za długo? I dlaczego jest niewiele lepiej niż ECS? ;) Bo tak właśnie jest. Sprzęt na starcie jest zadławiony. Nie wiem, doprawdy nie wiem jakim cudem można tego bronić.
Na tych Ami-konfigach, które w większości były w domach, to ta wielozadaniowość przydawała się tak samo jak *super hires interlace video overscan*, jako argument w dyskusji o wyższości, bo do niczego więcej.
@Hexmage960, post #514
Multitasking to jest dodatkowy czynnik, dlaczego Amiga jest takim fajnym systemem - procesor MC680x0 dzieli czas między zadania.
ponieważ wspomniałeś o zarzynaniu sprzętu
@Daclaw, post #510
@thomek, post #516
@wali7, post #512
@thomek, post #518
@abcdef, post #519
@abcdef, post #519
Niemniej same karty oferowały dużo większe możliwości niż AGA i do tego wcześniej niż AGA.Zawsze mi się wydawało, że VGA to 256 kolorów w trybie 320x200 i 16 kolorów w trybie 640x480 - to coś co wprowadził bodajże IBM w swoich komputerach u schyłku lat 80-tych. Był jeszcze jakiś dziwny tryb 260k col, ale żeby to wykorzystać to trzeba było jakieś karkołomne rzeczy wykonywać. Czy to było lepsze niż AGA, no nie wiem, zważywszy na to, że standardowa pamięć w kartach z tamtego okresu to okolice 0,5 mb. Myślę, że przełomem był standard SVGA, gdzie zaczęto dodawać więcej pamięci graficznej, co za tym idzie, nowe tryby rozdzielczości i większą ilość kolorów. To już było coś w stosunku do AGA, no i było trochę wcześniej jakby nie patrzeć.
@thomek, post #521
@Daclaw, post #520
@Daclaw, post #517
@Daclaw, post #510
Na tych Ami-konfigach, które w większości były w domach, to ta wielozadaniowość przydawała się tak samo jak *super hires interlace video overscan*, jako argument w dyskusji o wyższości, bo do niczego więcej.
@thomek, post #521
The 640×480 16-color and 320×200 256-color modes had fully redefinable palettes, with each entry selected from an 18-bit (262,144-color) gamut.
As the VGA began to be cloned in great quantities by manufacturers who added ever-increasing capabilities, its 640x480, 16-color mode became the de facto lowest common denominator of graphics cards
@abcdef, post #526
@MarcinLP, post #525
@MarcinLP, post #525
Dokładnie. Do czego przydawała się wielozadaniowość 1200? Oprócz słuchania modułów podczas pisania tekstu?
@nogorg, post #530
@MarcinLP, post #525
@trOLLO, post #532
@HOŁDYS, post #533
@thomek, post #521
@XoR, post #536
@XoR, post #536
@HOŁDYS, post #522
@Kefir_Union, post #539